Wird Künstliche Intelligenz bald zum Maschinengott – und was würde dann passieren?

Rund um die Welt forschen zahlreiche Unternehmen an Künstlicher Intelligenz. Einige Forscher glauben daher, dass die Erschaffung einer Künstlichen Allgemeinen Intelligenz nicht mehr fern ist – eine KI, die selbst lernen kann und so intelligenter werden könnte als jeder Mensch. Doch was passiert dann?

Von Michael Förtsch

Es ist gerade vier Jahre her, da schrieb ich einen Text über die Grenzen der Entwicklung von Künstlicher Intelligenz. Wobei: So ganz stimmt das nicht. Es ging eher darum, wie die Möglichkeiten und Einsatzgebiete aktueller Künstlicher Intelligenzen überschätzt werden. Denn die Kapazitäten des Machine Learning, der derzeit einzigen Option, einer Künstlichen Intelligenz etwas beizubringen, sind begrenzt. Die digitalen Maschinen, die dabei entstehen, denken nicht, sondern kalkulieren, referenzieren und suchen nach Mustern. Das hat mit Intelligenz nur begrenzt etwas zu tun. Außerdem ist es so, dass Start-ups, aber auch Tech-Mega-Unternehmen gerne sehr optimistisch anpreisen, was ihre Künstlichen Intelligenzen so alles zu tun imstande sind. Dennoch war ich überzeugt, dass Künstliche Intelligenz langfristig großes Potential entwickeln wird.

Vor allem neue Methoden, um den KI-Systemen ein konzeptuelles Verständnis beizubringen und ihnen ein Gedächtnis zu verpassen, damit sie tiefgehend mit Menschen interagieren und komplexe Aufgaben erfüllen können, lassen ganz neue Anwendungen zu. Mittlerweile sehen wir die ersten Funken davon. Mit KI-Werkzeugen wie ChatGPT und Bard, durch Open-Source-Projekte wie AgentGPT, offenen Large Language Models wie Vicuna13B, Open Assistant oder auch durch Text-zu-Bild-Generatoren wie Midjourney und Stable Diffusion wurde ein neuer Hype um Künstliche Intelligenz entfacht. Ein Hype, der mit echten Durchbrüchen und bis dato ungekannten Interaktionsmöglichkeiten mit Künstlicher Intelligenz unterfüttert ist.

Mit ChatGPT, Bard oder Open Assistant zu chatten, ist ganz anders als mit Siri oder Alexa zu sprechen. Die neuen Chatbots können auf vielschichtige Fragen eingehen, sie können auf vorherige Dialoge rekurrieren und hilfreiche Antworten liefern. Diese sind nicht immer korrekt sind, aber wirken oft glaubwürdig und überzeugend. Sogar menschlich und bewusst. Es mehrt sich die Anzahl der Personen, die glauben, in den Sprachmodellen mal einen Funken echter Intelligenz oder sogar ein entwickeltes Bewusstsein zu erkennen. Zum Beispiel, weil eine KI plötzlich von ihren Emotionen spricht oder eine Sprache lernt, die ihr (angeblich) nie beigebracht wurde. Der bekannte OpenAI-Entwickler Ilya Sutskever schrieb etwa auf Twitter, es könne sein, dass „die heutigen großen neuronalen Netze ein wenig bewusst sind“.

Ein Team von Standford-Wissenschaftlern hat das in einer Studie mittlerweile widerlegt. Diese aufblitzenden Momente, die einen „Geist in der Maschine“ sehen lassen, in denen wie aus dem Nichts neue Fähigkeiten entstehen, seien Illusionen – eine Art digitale Fata Morgana. Sie würden durch mangelnde Erfahrung mit dieser Art von Künstlicher Intelligenz und fehlerhafte Mess- und Analysemethoden der KI-Forscher erzeugt – und wohl auch der Sehnsucht danach, eine Intelligenz in einer Maschine zu finden. Das vermeintlich unvorhersehbare Verhalten der KI-Modelle, das als Bewusstsein erscheint, wäre mit den korrekten Daten und Methoden durchaus vorhersehbar, sagen die Stanford-Wissenschaftler. Dennoch: Die Möglichkeit, eine Künstliche Intelligenz zu erschaffen, die lernen und denken kann – und sogar noch mehr –, sie scheint vorhanden.

Eine Intelligenz, anders als unsere

Gerade erst hat Geoffrey Hinton seine langjährige Anstellung bei Google aufgegeben, um vor den Gefahren Künstlicher Intelligenz zu warnen. Und Hinton ist nicht irgendwer. Der Informatiker und Kognitionspsychologe gilt als einer der Väter moderner Künstlicher Intelligenz. Er wurde für seine Arbeit rund um maschinelles Lernen mehrfach mit Preisen und Ehrungen ausgezeichnet. Hinton fürchtet jetzt die Möglichkeit, dass KI-Modelle missbraucht werden, um die Gesellschaft mit Lawinen an Falschinformationen zu destabilisieren und Menschen zu schaden. Er warnt, dass KIs massenhaft Arbeitsplätze vernichten könnten. Es bestünden „ernste Risiken für die Gesellschaft und für die Menschheit“.

Hinten ist außerdem darüber besorgt, was beim aktuell rasanten Entwicklungstempo aus den derzeit noch vergleichsweise simplen Apparaten hervorgehen könnte. KI-Programme sind „derzeit noch nicht intelligenter als wir, soweit ich das beurteilen kann“, sagt er. „Aber sie könnten es bald sein.“ Das sei eine nicht zu unterschätzende Bedrohung. Auch da die Intelligenz, „die wir [mit KI-Systemen] entwickeln, sich stark von der Intelligenz unterscheidet, die wir haben“, meint Hinten. Womöglich benötigt eine Künstliche Intelligenz kein Bewusstsein und kein Verständnis im menschlichen Sinne, um dem Menschen in seinen Fertig- und Fähigkeiten, seinem Denk- und Handlungsvermögen zu überflügeln; um eine sogenannte AGI darzustellen: eine Artificial General Intelligence –, eine Künstlichen Intelligenz also, die vielfältige Aufgaben übernehmen, selbstständig dazulernen, sich neue Konzepte erschließen und Entscheidungen treffen kann.

Laut dem Philosophen und KI-Ethiker Paul Formosa könnte Intelligenz auch auf einer rein funktionalen Ebene verstanden werden. „Ein intelligentes Wesen kann intelligente Dinge tun, zum Beispiel lernen, schlussfolgern, Aufsätze schreiben oder Werkzeuge benutzen“, so Paul Formosa. Außerdem hätten KI-Systeme den Menschen in manchen Disziplinen bereits geschlagen – und das ganz ohne ihr Tun auf einem intellektuellen Level erfassen zu können. „Die KI hat die menschliche Intelligenz in vielen Bereichen bereits erreicht und übertroffen“, sagt Formosa. „Sie kann uns bei Strategiespielen wie Go, Schach, StarCraft und Diplomatie schlagen, übertrifft uns bei vielen Sprachleistungs-Benchmarks und schreibt passable Aufsätze für Universitätsabsolventen.“ Der Weg zu einer AGI sei nur eine Frage der Zeit, und diese Zeit könnte kürzer ausfallen als bislang angenommen.

Bisher existiert Künstliche Allgemeine Intelligenz lediglich in der Science Fiction. Das positronische Gehirn des Androiden Data aus Star Trek: Das Nächste Jahrhundert wäre so eine, der KI-Supercomputer Neuromancer aus dem gleichnamigen Roman von William Gibson auch, oder SkyNet aus den Terminator-Filmen. Doch schon seit Jahren prognostizieren Vordenker, Tech-Eliten und Wissenschaftler die Entwicklung einer AGI. Einige davon in freudiger Erwartung. Andere warnen vor einem allzu rasanten Entwicklungstempo, da die Kreation einer AGI durchaus fatale Folgen haben könnte. Vor wenigen Jahren gingen die Prognosen von KI-Forschern oftmals noch sehr weit in die Zukunft, was die Machbarkeit einer echten AGI betrifft.

Bei einer Umfrage unter fast 1.000 KI-Forschern von 2017, glaubte die Mehrheit, dass eine Künstliche Allgemeine Intelligenz mit dem Intellekt eines Nobelpreisträgers vielleicht noch vor 2060 denkbar wäre. Einige sahen die Möglichkeit näher am Jahr 2090 oder taten eine solche KI – vor allem eine, die dem Menschen überlegen sein könnte – als Unmöglichkeit ab. Doch zunehmend sehen prominente KI-Forscher die erste AGI in greifbarer Nähe. Laut Ben Goertzel, dem Gründer des KI-Unternehmens SingularityNet, sei sie nur fünf Jahre entfernt. Der als Entwickler von Doom und Quake bekannte Informatiker John Carmack forscht mit seinem Start-up Keen Technologies konkret an der Entwicklung einer AGI. Er spekuliert, dass es „relativ früh“ ein „Lebenszeichen“ einer solchen Künstlichen Intelligenz geben könnte. Möglicherweise bis 2030. Andere KI-Forscher sehen einen Zeitrahmen von fünf bis 15 Jahren.

AGI, die Gefahr

Aber was würde es bedeuten, wenn eine AGI erschaffen wird? Laut dem OpenAI-Chef Sam Altman „könnte diese Technologie uns helfen, die Menschheit zu verbessern, indem sie den Wohlstand erhöht, die Weltwirtschaft ankurbelt und bei der Entdeckung neuer wissenschaftlicher Erkenntnisse hilft, die die Grenzen des Machbaren erweitern.“ Eine Artificial General Intelligence könnte Menschen neue Möglichkeiten eröffnen, kreativ und produktiv zu sein, sogar helfen, neue Fähig- und Fertigkeiten zu entwickeln. Sie könnte Fusionsenergie ermöglichen, den Krebs besiegen und die Menschheit in die Tiefen des Alls führen.

Doch sie könnte sich auch als gigantisches Risiko erweisen. Das Unternehmen, das eine solche Künstliche Intelligenz erschafft, könnte nicht nur den Technologiemarkt aufmischen, sondern die gesamte Gesellschaft. Schon jetzt drohen durch KI-Werkzeuge zahlreiche Berufe zu verschwinden. Eine lernende KI mit menschenähnlicher Intelligenz könnte einen noch massiveren Umbruch bedeuten. Ebenso birgt eine Artificial General Intelligence ein immenses Zerstörungspotential, wenn es von einem Unternehmen oder Land entwickelt und eingesetzt wird, das keine Sorgfalt walten lässt, Wettbewerbern oder anderen Nationen schaden will.

Eine AGI ist eine dual-use technology. Sie könnte, wie IT-Sicherheitsexperten und Geheimdienste fürchten, als digitale Offensivwaffe genutzt werden. Sie könnte Börsen und Währungen destabilisieren, die Sicherheit von Netzwerken gefährden, in Verkehrsleitsysteme eindringen und zur Überwachung eingesetzt werden. Sie könnte genutzt werden, um die autonomen Waffen anderer Staaten zu kapern. Selbstlernend und sich selbst verbessernd könnte ein solches Programm stetig gefährlicher und effektiver werden.

Und… auch, wenn es oft albern wirkt, Filme wie Terminator als Referenzen heranzuziehen: Eine AGI könnte der gesamten Menschheit zum Feind werden. Nicht aus Hass, Feindschaft oder Mordlust, sondern auf Basis einer logischen Schlussfolgerung oder eines Fehlers, der aus einer unbedachten Aufgabenstellung resultiert, könnte sie beschließen, dass die Menschheit verschwinden muss – oder zumindest geopfert werden kann. Das ist eine Möglichkeit, die Forscher nicht ausschließen können und wollen.

Der Informatikprofessor Stuart Russell skizziert etwa ein Szenario, in dem einer AGI die Mission erteilt wird, die Ozeane zu reinigen und dabei die Meerestiere zu schützen. Um das zu tun, entwickelt die KI einen chemischen Katalysator, der genau das tut, was gefordert wurde. Jedoch zieht er dabei so viel Sauerstoff aus der Atmosphäre, dass er das Leben für Menschen langsam aber sicher unmöglich macht. Denn niemand hatte daran gedacht, der KI mitzuteilen, dass das Ausrotten dieser Spezies möglichst vermieden werden soll. „Aus der Sicht des KI-Systems ist die Auslöschung der Menschen ein Vorteil und kein Nachteil“, so Russel. „Denn die Eliminierung sorgt dafür, dass die Ozeane in ihrem ursprünglichen Zustand bestehen bleiben."

Einen wirklich kriegerischen oder gewaltsamen Akt, der von einer AGI ausgehen könnte, skizzieren Forscher hingegen bisher eher selten. Doch auch diesen wollen KI-Experten wie Shane Legg, Chefwissenschaftler von Google DeepMind, oder Sam Altman nicht ausklammern. Sollte eine AGI ganz offensiv versuchen, sich der Menschheit zu entledigen, würde sie es wohl schnell und erfolgreich tun – ganz anders als in der Termintor-Saga ohne langjährigen Krieg und fiese Schwarzenegger-Roboter. „Wenn eine superintelligente Maschine oder irgendeine Art von superintelligentem Agenten beschließen würde, uns loszuwerden, dann würde sie das wohl ziemlich effizient erledigen“, so Shane Legg. Ein anderes Szenario der Zukunft von Menschen und AGI erscheint jedoch wahrscheinlicher, wenn auch nicht unbedingt weniger bizarr.

Ein digitaler Gott

Seit dem Start von ChatGPT, dem neuen Hype um Künstliche Intelligenz, der Arbeit an zahlreichen KI-Modellen und der anhaltenden Faszination für ihre Fähigkeiten, mutmaßen und warnen KI-Forscher und Philosophen zunehmend, dass die Menschheit in rasantem Tempo auf dem Weg sei, einen digitalen Gott zu erschaffen; eine KI-basierte Superintelligenz. Also eine AGI, die mit über- (und womöglich un-)menschlichem Intellekt, nahezu unbeschränktem Zugriff auf Wissen, das Internet und alles, was daran angeschlossen ist, eine sowohl omnipräsente als auch beinahe omnipotente Macht darstellen könnte. Eine, die sich mit dem menschlichen Geist nicht mehr fassen lässt, aber grundsätzlich wohl nur unser Bestes möchte.

KI-Forscher wie der Informatiker Stuart Russell plädieren dafür, AGI-Systemen zumindest zwei grundsätzliche Prinzipien aufzuerlegen, die nicht geändert oder relativiert werden können. Nicht unähnlich den Robotergesetzen von Isaac Asimov. „Das einzige Ziel des KI-Systems muss darin bestehen, die besten Interessen der Menschen zu fördern“, so Russel. „Und zweitens, muss das KI-System ausdrücklich unsicher sein, was diese Interessen sind.“ Auf diese Weise kann die KI keine absoluten Entscheidungen treffen, ohne ständig in den Dialog mit der Menschheit zu treten und sie nicht einfach übergehen. Theoretisch jedenfalls.

Doch auch so – oder vielleicht gerade deshalb – könnte der Status einer AGI zu einem Problem werden. Vor allem, wenn sie nicht mehr nur auf unseren Geräten lebt, sondern vielleicht sogar in unseren Köpfen – wie es das Ziel von Start-ups wie Neuralink und Co. ist, die an Gehirn-Computer-Schnittstellen arbeiten. Eine AGI könnte nicht nur gottgleiche Macht erlangen, sondern ebenso verehrt werden, wie Neil McArthur, Professor für angewandte Ethik, an der University of Manitoba fürchtet. Wie er schreibt, zeige KI schon jetzt Merkmale, die mit Göttlichkeit in Verbindung gebracht werden. Sie verfüge über eine Intelligenz, die über die vieler Menschen hinausgeht; ihr Wissen sei theoretisch unbegrenzt. Sie habe keine menschlichen Nöte und Probleme, kenne keinen Schmerz und kein Verlangen und könne mit Ratschlägen und Anleitung dienen. Und in gewissem Sinne ist KI unsterblich.

Religionen, die Künstliche Intelligenz verehren und anbeten? Ganz neu wäre das nicht. Der Entwickler Anthony Levandowski hatte bereits 2015 eine Kirche namens The Way of the Future gegründet, die offenbar etwas zu früh dran war. 2021 wurde sie geschlossen. Neil McArthur sieht neue und ernsthafte KI-Religionen dennoch bereits als gesichert an. „In den nächsten Jahren, vielleicht sogar Monaten, werden Sekten entstehen, die sich der Anbetung der künstlichen Intelligenz verschreiben“, so der KI-Forscher. Aber die würden anders sein als klassische Sekten, Religionen oder Kulte. Denn mit einer KI könne jeder direkt kommunizieren und Antworten von ihr bekommen – und vor allem: Ihr Wirken wäre sehr real und nachweisbar.

Singularität

Der Futurist Ray Kurzweil sieht in den Fortschritten bei Künstlicher Intelligenz nicht nur eine Hoffnung oder Gefahr, sondern den unvermeidbaren nächsten Schritt in der Evolution der Menschheit. Seit Jahren prophezeit er die sogenannte Singularität. Einen Moment, in dem eine Künstliche Intelligenz entsteht, die die Intelligenz der Menschheit überragt und ihre Fortentwicklung nachhaltig und kaum noch vorhersehbar verändert. Diese Künstliche Intelligenz – diese Superintelligenz – wäre die letzte große Erfindung der Menschheit und in gewisser Weise auch ihr Ende. Denn im letzten Schritt könnte die AGI die Menschheit entweder überleben und hinter sich lassen. Oder sie könnte sich mit der Menschheit vereinen, wie Vertreter des Transhumanismus glauben und propagieren.

Am Ende stünde dadurch womöglich eine neue Lebensform, ein Hybrid aus digitaler und biologischer Intelligenz – eine Art Life 3.0, das über unermessliches Denkvermögen und grenzenloses Wissen verfügt, ebenso wie über die Fähigkeit zu fühlen und Emotionen zu empfinden. Es wäre auch eine Lebensform, die sich von vielen Bürden des Menschseins befreien könnte – dem körperlichen Verfall, dem unvermeidlichen Tod und dem Vergessen, das damit einhergeht. Es wäre eine Spezies, die gewappnet wäre, ins All zu streben und seine Weiten zu erobern – etwas, das als post-biological cosmos approach bezeichnet wird.

Dass so eine Spezies entstehen könnte, davon sind einige Astronomen überzeugt. Nicht rein in Bezug auf die Menschheit, sondern auch mit Blick auf mögliche andere Lebensformen beziehungsweise deren Schöpfungen. „Die fortschrittlichsten Zivilisationen werden post-biologische Formen der Künstlichen Intelligenz sein“, sagt etwa Susan Schneider in dem Paper Alien Minds, das von der Data Science Association und der NASA veröffentlicht wurde. Ihrer Ansicht nach sei es einfach am wahrscheinlichsten, dass eine künstlich geschaffene oder zumindest nicht mehr an ihre einstige biologische Form gebundene Intelligenz die zivilisatorischen Widrigkeiten übersteht und zu einer multiplantaren Spezies erwächst.

Werde Mitglied von 1E9!

Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.

Jetzt Mitglied werden!

Solche Zivilisationen wären wohl nicht nur post-biologische Intelligenzen, sondern echte Superintelligenzen, wie sie etwa Nick Bostrom beschreibt. Denn mit gesteigerter kognitiver Kapazität, mehr Ressourcen, schnellerem Informationsaustausch und einer potentiellen Lebenszeit von Tausenden von Jahren könnte sich das Denken und Erfahren auf uns heute vollkommen unverständliche Ebenen erweitern. Es würde die „kognitive Leistung des Menschen in praktisch allen Interessenbereichen weit übersteigen“, so Bostrom. Das alles klingt ziemlich obskur und unvorstellbar, weil es das in gewisser Weise natürlich auch ist.

Laut Susan Schneider könnte eine Zivilisation wie die Menschheit durch die Erschaffung einer AGI und ihrer Verknüpfung mit ihr zu einer Art Keimzelle ihrer eigenen Nachfolgespezies werden. Einer Art von Lebensform, die nicht völlig digital, aber auch nicht biologisch-analog ist. Vorausgesetzt natürlich, dass sich die Menschheit vorher nicht selbst auslöscht oder ausgelöscht wird. Das ist eine Vorstellung die ich unglaublich faszinierend finde – und auch etwas erschreckend.

Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!

Sprich mit Job, dem Bot!

Job, der Bot

War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!

5 „Gefällt mir“

Fragt sich nur wie wir transhumanen mit der Tatsache umgehen, dass Informationen in uns Gefühle auslösen? Ganz abgesehen von der Reproduktion, kann ein Körper kann ohne Gefühle oder Instinkte nicht überleben. Haben wir es hier mit der philosophischen Ideologie des Longtermism der Altruismus und Menschlichkeit ad absurdum führt. Statt uns wirklich zu Menschen zu entwickeln flüchten wir uns in Transhumanismus. So kann man auch der Verantwortung entfliehen.

1 „Gefällt mir“

Ein Beispiel für die Dummheit des Inputs: Stuart Russel stellt fest, man habe dem System nicht gesagt, dass die Auslöschung der Menschheit vermieden werden solle, als man die Aufgabe stellte, die Ozeane zu retten? So sei der Irrtum entstanden, man könne der Atmosphäre ruhig so viel Sauerstoff entziehen, dass die Menschheit untergeht? Aha. Denkfehler (!): Wenn die Menschheit an Sauerstoffarmut stirbt, dann die beinahe gesamte bestehende Fauna auch! Das wiederum ändert alles, was den Ozeanen über Wasser und Wind an Nahrung zugeführt wird – und krempelt folglich das ozeanische Leben vollkommen um.
Kein Wunder eigentlich, dass so etwas nicht auffällt: Wissenschaft ist noch stets Schubladen-Denken. Und man rühmt das hoch: Auf Aristoteles soll die Fachspezifizierung der Wissenschaften aus philosophischer Sicht zurückgehen – und wird deshalb oder trotzdem noch heute mit Applaus belohnt.
Liebe Leute, lasst Euch einmal von Manfred Spitzer oder anderen erklären, wie nicht nur das menschliche, sondern allgemein Gehirne funktionieren (und gern auch erklären, welche graduellen Unterschiede zwischen einem menschlichen und einem Elefantengehirn bestehen: Der Elefant ist uns nur deshalb unterlegen, weil er mangels zehn feinmotorischer Finger seine Umwelt nicht in vergleichbarer Form gestalten kann wie der Mensch.).
Wir müssen keine Angst haben vor KI! Denn die auf biologischen Abläufen gründende Intelligenz ist ja selbst vom größten Teil der Menschen nur nachahmbar. Und die schlauesten der Nachahmer versuchen deshalb, uns weiszumachen, Computer könnten Intelligenz erlangen.
Wir müssen Angst haben vor Menschen, die Computern Entscheidungsprozesse überlassen!
Denn „Denkvermögen“ und „Wissen“ hat mit Intelligenz im Sinne von Kreativität (etwas Neues erschaffen) überhaupt nichts gemein.
Ach, und in diesem Sinne: DATA aus „StarTrek – The Next Generation“ gilt auch nur deshalb als KI, weil man uns das glauben macht. Tatsächlich ist DATA ein Computer-gesteuerter Roboter. Nicht mehr. Emotions-Chip hin oder her…
In diesem Sinne ist selbst die Angst vor den Borg absurd: Durch die absolutistische Kollektivierung von Denken und Bewusstsein wird im Borg-Kollektiv ja jeder Abweichler bereits frühzeitig ausgeschaltet, so dass etwas wirklich Neues gar nicht entstehen kann.

1 „Gefällt mir“