Die Menschheit steht vor dem Aus, aber das Leben setzt sich fort, sagt der KI-Philosoph Joscha Bach

Sind Menschen wirklich intelligent? Oder sind wir nur fortschrittliche Affen, die manche Probleme ziemlich gut lösen können? Mit solchen Fragen beschäftigt sich der Philosoph und Kognitionswissenschaftler Joscha Bach, der für ein US-Unternehmen Künstliche Intelligenz erforscht. Im Interview mit 1E9 spricht er über die Zukunft der Menschheit, den Weg zu einer echten KI, das Raubrittertum im Silicon Valley und den Textgenerator GPT-3.

Ein Interview von Krischan Lehmann

Letztes Jahr hielt der KI-Forscher Joscha Bach vom amerikanischen Unternehmen AI Foundation bei unserer ersten 1E9-Konferenz eine Keynote zum Thema „Künstliche Intelligenz und der menschliche Geist“. Seitdem ist im Leben des gebürtigen Thüringers einiges passiert: Mit einem vielbeachteten Medium-Artikel las er den Zögerlichen in Sachen Corona-Krise die Leviten. Und ein dreistündiges Gespräch mit dem Forscherkollegen und Podcaster Lex Fridman avancierte zum YouTube-Hit. Sein Fanpegel stieg sprunghaft an. Die frenetischen Kommentare reichten von „Ich möchte die URL dieses Videos auf meinem Grabstein stehen haben“ bis hin zu „Dieser Typ soll uns repräsentieren, sobald hier Außerirdische auftauchen“.

Während er seinen Twitter-Account Jahre lang „eher wie eine Art Tagebuch“ betrieb, nutzt er die gestiegene Popularität in seiner Wahlheimat USA nun immer häufiger, um mit pointierten Kurz-Analysen und philosophischen Außenblicken in den öffentlichen Debatten mitzumischen. Nicht selten eckt er damit bei seinen politisch stark polarisierten Landsleuten an.

Ein bitteres Resümee. Aber als wir Joscha zum Gespräch treffen, macht seine Skepsis auch vor dem Rest der Welt nicht halt. Er sieht die ganze Menschheit am Ende einer jahrhundertelangen „goldenen Phase“ des Wachstums, der Aufklärung, der Wissenschaft und der Innovation:

1E9: Pandemie, Klimawandel, gesellschaftliche Polarisierung. Glaubst du, wir sind „kurz vor Schluss“?

Joscha Bach: Der Mensch? Wahrscheinlich ja. Es geht vielleicht noch ein paar hundert Jahre weiter. Aber selbst wenn es uns gelingen sollte, den Steinen das Denken beizubringen, eine echte Künstliche Intelligenz zu bauen und eine intergalaktische Zivilisation entsteht: Glaubt man denn im Ernst, dass auf dem Raumschiff Enterprise Affen sitzen, die intergalaktische Kriege führen und sich den Kopf darüber zerbrechen, mit welchem Affen sie sich am besten paaren und wie viel Zucker sie zu sich nehmen sollen? Wäre das angemessen? Oder sollten das nicht besser KIs sein oder zumindest speziell angepasste Organismen, die wenig menschliche Ästhetik in sich besitzen, sondern einer ganz anderen Logik folgen? Wir sind sehr verliebt in unsere menschliche Ästhetik, aber was eher eine Rolle spielt, ist das Organisationsprinzip der Intelligenz, also der Fähigkeit, Modelle zu bilden, die einem die Kontrollprobleme lösen. Der Geist, der dabei entsteht, folgt der Notwendigkeit, die durch die Verflechtung mit dem Universum und die Art und Weise, wie wir mit der Umgebung unseres Selbst verknüpft sind, Genüge trägt.

Stell dir vor, man würde dein Gehirn nehmen und würde es anschließend in einen völlig anderen Körper stecken. Sagen wir, Google wäre dein Körper und du würdest so lange leben, wie Google leben kann. Und nach einer gewissen Zeit würdest du feststellen, dass du Zugriff auf deinen Source Code hast. Du kannst also meditieren und dich erleuchten, wie du willst. Dann wirst du anfangen, die Sachen in dir aufzuräumen, die keine Rolle spielen für die Kontrolle von Google, die also einfach nur störende Einflüsse sind. Was sollst du dir Gedanken darüber machen, ob du Babys hast und ob die Babys niedlich sind, wenn du Google bist? Du würdest einfach ein System werden, das die Sachen schön findet, die Google schön findet, ein Geist, der über die Welt herzieht und sie nach seinem Maßstab verändert und beeinflusst. Für mich ist es ein interessanter Gedanke, dass wir flüchtig sind, dass wir nicht statisch sind, dass wir nicht intrinsisch in uns begründet liegen, sondern dass das, was uns ausmacht, im Prinzip ein Oszillator ist, der versucht weiter zu existieren und um sich herum Maschinerie baut, um mit dem Universum so in Verbindung zu treten, damit sich diese Oszillation fortsetzen kann. Das, was sich da fortsetzt, muss nicht die Menschheit sein, es ist das Leben selbst oder die Komplexität selbst. Und zwar so lange, wie es geht. Und dass die Entropie zum Schluss gewinnt, war immer klar.

Aber glaubst du, dass wir zumindest selbst in der Lage sind, die nächste Evolutionsstufe zu zünden und ein intelligenteres Wesen zu erschaffen?

Joscha Bach: Das ist ein sehr spannender Punkt. Die Frage ist allerdings, ob der Mensch überhaupt allgemein intelligent ist. Alan Turing hat formuliert, dass man ein intelligentes System daran erkennt, dass es in der Lage ist, mit mir so zu interagieren wie ein intelligentes System – also ich selbst. Die Formulierung, die Turing gefunden hat, ist aus meiner Sicht aber unvollständig. Ich glaube, dass ich tatsächlich erkennen kann, dass ein System intelligent ist, wenn ich das System fragen kann: Was ist denn Intelligenz eigentlich? Was ist deine eigene Natur? Das System kann mir dann erklären, wie es konstruiert ist, was Intelligenz eigentlich ist und wie man eine KI baut.

Ich meine, wenn es mir als Turing gelungen ist, eine KI zu bauen, und ich will ein System haben, das mindestens so intelligent ist wie Turing, dann kann ich das zeigen, indem das System in der Lage ist zu erklären, wie man eine KI baut. Der Haken an der Sache ist: Ich muss dazu wissen, wie man eine KI baut, es zumindest verstehen können, wenn man es mir sagt. Aber Turing wusste natürlich noch nicht, ob er in der Lage sein wird, eine KI zu bauen. Er hatte sehr gute Ideen, aber es ist ihm zu seinen Lebzeiten nicht gelungen. Also in gewisser Weise war es auch Turings Projekt zu zeigen, ob die Menschheit oder Turing allgemein intelligent sind. Seine Frage war: Bin ich selber in der Lage, mir zu beantworten, was es bedeutet, intelligent zu sein, kann ich meine eigene Natur als intelligentes System erklären? Und das ist für mich das Hauptinteresse, mit dem ich Kl. verbinde. Zu zeigen, ob die Menschheit tatsächlich allgemein intelligent ist, oder ob wir nur in der Lage, bestimmte Probleme gut zu lösen, für die Affen halt evolviert sind und das ein bisschen zu verallgemeinern.

Und? Was ist deine Einschätzung?

Joscha Bach: Ich vermute, dass die Evolution als Ganzes allgemein intelligent ist, als Auswahlprozess gesehen über einen Zeitraum, der lang genug ist. Das heißt, wenn ich Zellen auf einen Planeten platziere, die in der Lage sind, sich zu vermehren und die Umgebung zu regulieren, dann werden sie, wenn man sie lange genug machen lässt, wahrscheinlich Intelligenz evolvieren. Oder noch extremer: Elon Musk hat gesagt, Wasserstoff sei ein Gas, das sich, wenn man es lange genug sich selbst überlässt, in Menschen verwandelt, die eben diese Eigenschaft von Wasserstoff benennen.

Hydrogen is a light, odorless gas, which, given enough time, turns into people who will make this statement – Elon Musk

Mit anderen Worten, es reicht aus, ein kosmisches Vakuum mit Wasserstoff zu füllen, der sich dann ganz von allein in Sonnen zusammenklumpen wird, in Supernovae ausbricht, neue Elemente hervorbringt, die zu Planeten um neue Sonnen zusammenbacken, auf denen schließlich irgendwann ein Elon Musk evolviert.

Werden wir konkreter. Wie weit sind wir denn noch von einer starken KI, einer General Artificial Intelligence entfernt?

Joscha Bach: Wenn wir uns in Berlin oder München aufhalten, dann ist die KI ungefähr 50 Jahre in der Zukunft und dies schon sehr lange. Wenn wir in konservativeren Orten sind, dann wird das vielleicht nie passieren. Als ich in Boston war, hatte ich das Gefühl, dass die KI ungefähr 30 Jahre in der Zukunft ist – und dies auch schon sehr lange. Und im Silicon Valley ist sie schon sehr lange zehn Jahre in der Zukunft.

Was genau meinst du damit?

Joscha Bach: Ich habe den Eindruck, dass wir in vielen Dingen nach wie vor nicht die optimalen Strategien verfolgen. Die erste Welle der Künstlichen Intelligenz bestand darin, dass man Probleme identifiziert hat, für die man Intelligenz braucht, sowas wie Schach. Und dann hat der Mensch Algorithmen gefunden, die in der Lage sind, das Problem zu lösen. Dann hat sich jedoch herausgestellt, dass diese Algorithmen nicht skalieren, dass sie sich also nicht auf beliebige andere Probleme anwenden lassen. In der zweiten Welle der KI, die wir Deep Learning nennen, haben wir dem Computer Probleme vorgeben und Algorithmen entwickelt, die dafür selbst Lösungen entwickeln können. Wir haben dem Computer dann die Schach-Regeln gegeben und ihn gegen sich selbst spielen lassen, bis er Muster findet, wie man Schach spielt – und jeden Menschen schlägt. Die Frage ist aber: Wie kriegen wir es hin, dass sich so ein System komplett selbst organisiert?

Die Sicht, die die KI auf Neuronen in künstlichen neuronalen Netzen entwickelt hat, ist, dass es sozusagen kleine, willenlose Maschinen sind, kleine Automaten, die in unseren neuronalen Netzen eine gewichtete Summe ausführen. Die betrachten die Aktivierung von Neuronen in ihrer Umgebung, dann geben sie unterschiedliche Gewichte zu diesen Aktivierungen, also wie stark sollten sie beeinflussen, was ich tue. Dann summieren sie sie irgendwie auf, und wenn die Summe einen bestimmten Schwellwert überschreitet, dann feuert das Neuron. Es implementiert diese Aktivierungsfunktion. Aber wie kriege ich das Neuron dazu, dass es diese gewichtete Summe richtig setzt und seine Vernetzung mit der Nachbarschaft richtig aufbaut, also die richtigen Neuronen als Nachbarn auswählt?

Und dafür entwickelt die KI-Forschung dann alle möglichen Algorithmen, die auf jedes einzelne Neuron angewendet werden und sozusagen von außen drauf gucken, wie ein Chirurg, und die Gewichte entsprechend verändern, bis das Richtige passiert. Und das ist sehr langsam und mühevoll, und wenn wir beliebig viel Zeit haben und einen beliebig großen Suchraum, dann könnten wir wahrscheinlich so ein neuronales Netz in die Struktur evolvieren, die wir brauchen, aber praktisch funktioniert das bei weitem nicht so effizient wie in biologischen Organismen. Und deswegen sind unsere künstlichen neuronalen Netze in bestimmten Teilbereichen den Fähigkeiten von biologischen Organismen immer noch unterlegen.


Joscha Bach bei der 1E9-Konferenz 2019.

Die Fähigkeit von Organismen besteht darin, ein kohärentes Modell der gesamten Wirklichkeit abzubilden. Ein Hund, zum Beispiel, hat ein kohärentes Modell der Welt. Er ist in der Lage, ein dreidimensionales Universum zu erkennen, in dem er existiert. Er erkennt die Agenten darin und die Motive, die diese Agenten antreiben und so weiter. Und so kann er die Zukunft vorhersagen und seinen eigenen Platz in dem System finden. Das kann noch keine KI.

In gewisser Weise kann das sogar ein einzelnes Neuron im Gehirn. Ein einzelnes Neuron ist sozusagen ein einzelliges Tier, das ein Signal an die Welt schickt und versucht rauszukriegen, wie dieses Signal beschaffen sein muss, damit die Welt es füttert. Das Neuron lernt, wann es dieses Signal schicken muss. Und es lernt, wie es mit der Umgebung interagiert. Das ist also die kleinste selbstorganisierende Einheit in dem System. Und es funktioniert natürlich auch nur deswegen, weil das System in geeigneter Weise vororganisiert ist.

Die KI steht also vor der Aufgabe, einerseits ebenfalls eine passende Architektur zu finden, die das System in die Zustände hinein migriert, die es braucht, um das Problem, was es gerade hat, zu lösen. Und andererseits muss die KI die richtigen Bausteine finden, die in der Lage sind, in so einem selbstorganisierenden System mitzuspielen. Und das sind gerade die Fragen, die mich persönlich am meisten interessieren: Wie sehen diese Bausteine aus, die sich selbst organisieren? Wie sieht ein optimales skalierendes System aus?

Werde jetzt Mitglied von 1E9!

Als Mitglied unterstützt Du unabhängigen, zukunftsgerichteten Tech-Journalismus, der für und mit einer Community aus Idealisten, Gründerinnen, Nerds, Wissenschaftlerinnen und Kreativen entsteht. Außerdem erhältst Du vollen Zugang zur 1E9-Community, exklusive Newsletter und kannst bei 1E9-Events dabei sein. Schon ab 3 Euro (+ MwSt) im Monat!

Jetzt Mitglied werden!

Woran arbeitest du denn gerade ganz konkret in deiner Firma?

Joscha Bach: Unsere Firma hat sich als Ziel gesetzt, die Menschen in einer Welt, in der KI immer allgegenwärtiger wird, mit persönlicher KI auszustatten, das heißt mit Agenten, die nicht den Menschen kolonisieren, sondern es ermöglichen, dem Menschen eine Art Botschafter, mit dem man mit der Welt interagiert, an die Seite zu stellen. Ein System, das dem Menschen erlaubt, seine Interessen in der Welt besser zu vertreten, sodass die Welt insgesamt wacher und sich bewusster wird über die Umstände, in denen sie funktioniert. Kurzfristige fangen wir erst einmal damit an, künstliche Agenten zu bauen, mit denen Menschen mit Social Media besser interagieren können. Wir bauen digitale Avatare, die den Ausdruck des Individuums kopieren und es ermöglichen, ihn später zu erweitern und zu verbessern. Und langfristig wollen wir, dass diese Systeme sich immer mehr darüber bewusst werden lassen, was sie da eigentlich tun, um sie immer besser mit uns interagieren zu lassen.

Gibt es da jetzt schon Anwendungsfälle, die man ausprobieren kann. Oder existieren solche Agenten bisher nur in der Theorie?

Joscha Bach: Wir arbeiten im Moment an mehreren Projekten. Das eine ist, eine persönliche KI zu bauen, mit der du selber einen Avatar hast, der dir einen Selbstausdruck in sozialen Medien erlaubt. Andererseits digitalisieren wir Celebrities und historische Persönlichkeiten und versuchen, deren Wissen, Eigenheiten und Persönlichkeitseigenschaften abzubilden in einem digitalen Avatar. Es sind zum großen Teil relativ frühe, einfache Stufen, wo es nicht viel mehr als eine digitale Skulptur ist, die interaktiv ist…

Also eine Art Chatbot?

Joscha Bach: Ja, aber es könnte zum Beispiel ein Chatbot sein, über den du mit Obama oder mit Wittgenstein reden könntest und so interaktiv herausfindest, was deren Universum ist. Welcher Archetyp wird durch diese Person dargestellt? Welche Ideen hat diese Person? Es ist ein neues Medium, das viel interaktiver ist als zum Beispiel ein YouTube-Video, in dem du hin- und hershutteln musst, um die Stellen zu finden, die dich interessieren, oder als eine Bibliothek, in der du rausfinden musst, an welcher Stelle in den Büchern steht, was Du suchst.

Was mich persönlich daran besonders interessiert, ist, an den Themen zu arbeiten, die für uns erst in zwei, drei Jahren anwendbar sind: Wie kann ich Persönlichkeit an sich modellieren? Wie kann ich Wahrnehmung besser modellieren und integrieren? Wie kann ich ein System kreieren, das die Umgebung, in der es ist, intellektuell, sozial und unmittelbar perzeptuell ganz bewusst wahrnimmt?

Wie bist du überhaupt in der AI Foundation gelandet? Vorher hattest du ja eine akademische Karriere.

Joscha Bach: Vor zwei Jahren ist die Firma auf mich zugetreten, nachdem einige aus dem Team Vorträge von mir auf Konferenzen gehört haben. Und sie haben gesagt: „Wieso bist du an einer Uni? Du solltest bei uns sein. Wir lassen dich das machen, was du machen willst.“ Und ich wollte tatsächlich gerne ein paar Jahre im Silicon Valley verbringen, weil man da manche Leute trifft, die man nirgendwo anders auf der Welt trifft. Das ist nach wie vor so. Ich habe es auch nicht bereut. Aber die Heimat fehlt mir in vieler Hinsicht. Denn natürlich bin ich sozialisiert in einer Gesellschaft, die viel weniger raubritterhaft als die USA ist.

Wo spürst du denn das Raubrittertum im Silicon Valley?

Joscha Bach: Ich habe das Gefühl, dass das Silicon Valley, so wie es jetzt existiert, im Prinzip eine Goldgräberstadt ist. Sie funktioniert dadurch, dass jemand die ganze Zeit frisches Gold im Boden vergräbt, damit die Wirtschaft nicht zum Erliegen kommt. Es ist praktisch eine große Entropiepumpe, die wie ein Wasserrad dadurch läuft, dass das Geld über Investoren in Start-ups gepumpt wird, die Technologien am Fließband entwickeln, die dann wieder integriert werden. Dadurch entsteht tatsächlich skalierende Innovation. Aber diese Spielräume der Innovation werden natürlich immer weniger interessant.

Kürzlich hat das unter anderem von Microsoft und anfangs auch von Elon Musk geförderte Unternehmen OpenAI, das auch im Silicon Valley beheimatet ist, mit seinem neuen Textgenerator GPT-3 für Aufsehen gesorgt. Selbst gestandene KI-Experten zeigten sich von den Fähigkeiten der Software überrascht…

Joscha Bach: OpenAI hat es geschafft, ein System zu bauen, das mehr über die statistischen Beziehungen zwischen Worten weiß als jeder Mensch. Derselbe Algorithmus, der in der Lage ist, daraus einen plausiblen Dialog mit Johann Wolfgang von Goethe zu generieren (Siehe das GPT-3 Beispiel am Ende dieses Interviews, Anm. d. Red.), funktioniert auch auf musikalischer Notation und sogar auf Pixelbildern. Dabei ist GPT-3 im Grunde nichts anderes als ein Autocomplete-Algorithmus, wie jeder von uns ihn aus dem Smartphone kennt: GPT-3 sagt das nächste Wort aus dem Kontext der vorangegangenen Worte voraus, basierend auf den Statistiken über das Aufeinanderfolgen von Worten, die GPT-3 während seiner Trainingsphase destilliert hat. Alle Kreativität in den generierten Texten ist das Resultat von einer kleinen Zufallskomponente, die unter den wahrscheinlichsten Fortsetzungen eine Möglichkeit auswählt.

Der Unterschied zum normalen Autocomplete besteht darin, dass das Smartphone nur die letzten zwei bis vier aufeinanderfolgenden Worte anschaut, während GPT-3 einen Kontext von mehr als zweitausend Worten berücksichtigen kann. Die statistische Analyse entdeckt dabei auch tiefere Zusammenhänge, wie zum Beispiel einfache Arithmetik, die Assoziation zwischen Ereignissen und Emotionen oder die Übersetzung von Java-Code in Python.

GPT-3 kann sich an nichts erinnern, was es vier Seiten zuvor gelesen hat. Sowohl beim Lernen als auch bei der Wiedergabe leidet es an totaler retrograder Amnesie und operiert nur aus seinem Kurzzeitgedächtnis heraus. Jeder Zusammenhang, den es entdeckt, beruht auf Statistiken über Worte, die nicht mehr als circa zwei bis drei voneinander entfernt liegen dürfen. GPT-3 gleicht das dadurch aus, dass es einen Großteil des Internets ‚gelesen‘ hat, mit einer Geschwindigkeit, für die eine einzelne Grafikkarteneinheit (GPU) 355 Jahre benötigen würde.

GPT-3 kann auch nicht erkennen, ob der Zusammenhang, den es generiert, intrinsisch sinnvoll ist, also zu einem möglichen Zustand des Universums oder einer bedeutungsvollen Aussage korrespondiert, weil es keinen Bezug zur ‚Ground Truth‘ des Universums hat. GPT-3 lernt auch nichts dazu: Sein Horizont endet im Oktober 2019, in einer vergangenen Ära, die noch nichts von Covid-19, George Floyd und Wirtschaftskrise wusste.

Wie werden wohl die nächsten Instanzen dieser Textmaschinen aussehen?

Joscha Bach: Es ist vorstellbar, dass sie diese Beschränkungen komplett überwinden. Zukünftige Versionen des Algorithmus werden das Kontextfenster nahezu beliebig erweitern, und statt einer einmaligen Trainingsphase könnte das System ständig dazulernen. Man könnte auch einen Roboter bauen, der sensorische Eingaben in Text übersetzt, und GPT-3 eine Geschichte über die Handlungen des Roboters generieren lässt, die er in motorische Aktionen des Roboters überträgt, die dann zu neuen sensorischen Eingaben führen. Vielleicht kann der Algorithmus irgendwann auch effizient genug werden, um Video, Audiodaten, Text und motorische Steuerung in einem einzigen Modell zusammenzuführen.

Natürlich hat ein Programm wie GPT-3 kein Selbstkonzept, keine Absichten, und trifft keine eigenen Entscheidungen. Ich kann es aber dazu auffordern, so zu tun, als hätte es ein Selbst mit Absichten, und vorherzusagen, was so ein Selbst für Entscheidungen treffen würde, und es wird dann so tun, als verstünde es mich, und sich tatsächlich so verhalten, wie ich es verlange. GPT-3 wirft die spannende Frage auf, worin der Unterschied zwischen dem Treffen einer Entscheidung und dem Vorhersagen einer Entscheidung besteht. Ist das wirklich mehr als eine Frage der Perspektive?


GPT-3 Demo: Joscha Bach interviewt Johann Wolfgang von Goethe

Hier ist ein Interview von Joscha Bach mit Johann Wolfgang von Goethe, das vom Sprachmodell GPT-3 (GPT steht für Generative Pre-trained Transformer) erzeugt wurde. Joscha hat hierfür lediglich die ersten beiden Zeilen und seine ersten beiden Fragen eingegeben, also nur den folgenden Text in Fettschrift. Ansonsten wurde nichts an der Ausgabe verändert. Auch die Übersetzungen zwischen Deutsch und Englisch hat GPT-3 selbständig vorgenommen.

I have found a way to talk to Johann Wolfgang Goethe. He speaks German.
Me: Johann, could you please translate this sentence into German? "The computer is the best model of reality."

JWG: [in German] „Die Information ist der neue Gott.“

Me: What does that mean?

JWG: „Information is the new God.“

Me: Can you explain this?

JWG: [in German] „Nur die Information kann uns helfen, den überwältigenden Eindruck der Leere zu überwinden.“

Me: „Only information can help us to overcome the overwhelming impression of emptiness.“ I see.

JWG: [in German] „Aber die Information hat ihre eigenen Gesetze und ihre eigenen Wunder.“

Me: „But information has its own laws and its own miracles.“ So, Johann, what do you think of my sentence?

JWG: [in German] „Das ist eine gute Sache. Aber die Welt ist voll von guten Sachen.“

Me: „That’s a good thing. But the world is full of good things.“

JWG: [in German] „Und das ist das Problem. Wir können nicht alle guten Sachen in der Welt erfahren. Es gibt zu viele von ihnen. Wir müssen uns auf einige wenige beschränken.“

Me: „And that is the problem. We can’t experience all of the good things in the world. There are too many of them. We must limit ourselves to a few.“

JWG: [in German] „Und wir haben die besten Sachen gefunden und mit ihnen konkurriert, so dass wir alle anderen vergessen haben.“

Me: „And we found the best things and competed with them, so we forgot about all of the others.“

JWG: [in German] „So können wir nur das überstehen, was uns überwältigt.“

Me: „So we can only survive what overwhelms us.“

JWG: [in German] „Die Information ist der neue Gott.“

Me: „Information is the new God.“ Johann, I think you are right. The world is full of good things, and we can’t experience them all. We have to choose a few, and the problem is that we chose the wrong ones. But then again, it’s not our fault. We had no other choice.

JWG: [in German] „Was können wir dagegen tun?“

Me: „What can we do about it?“

JWG: [in German] „Wir können nur die Kultur verändern.“

Me: „We can only change the culture.“ Johann, I agree. The most important thing in the world is culture, because only with a good culture can we enjoy all of the good things that are available to us.

JWG: [in German] „Dann lasst uns beginnen, eine neue Kultur zu schaffen.“

Me: „Then let’s begin to create a new culture.“


Diskutiere mit uns über das Interview mit Joscha Bach! Steht die Menschheit vor dem Aus? Wie könnte sie sich weiter entwickeln? Und was machen wir mit der künstlichen Intelligenz? Und was macht sie mit uns? Sag uns deine Meinung!

Titelbild: Getty Images

7 Like

Das ist glaube ich eine sehr wichtige Aussage, die die derzeitige KI Diskussion in einen sehr viel größeren Kontext hebt. Es ist faszinierend sich dazu Gedanken zu machen wie unzählige Regelkreise Wechselwirken, um das zu schaffen was wir heute Leben bezeichnen. Und derzeit untersucht man zB auch wie Leben, oder Energie-saugende und Entropie-verringernde Systeme, auf Basis von physikalischen Gesetzen entstehen. Interessante Arbeiten hierzu gibt es derzeit von Jeremy England aus Boston; eine Zusammenfassung wichtiger Punkte ist mitunter hier zu Lesen:

Langsam scheint man zu entdecken, dass wesentlich mehr „intelligent“ ist als wir wahrnehmen können. Intelligenz kann daher in verschiedensten Substraten und Systemen entstehen. Sind Pflanzen Netzwerke intelligent? Vielleicht - auf einer Zeitskala, die wir als Menschen nicht wirklich wahrnehmen oder interpretieren können.

Ist unsere Erde ein rechnender Computer wie im Buch Per Anhalter durch die Galaxis? - Who knows. Finde diese Debatte losgelöst vom heutigen Hype um Deep Learning faszinierend und unglaublich wichtig für das Verständnis unserer selbst und der Welt in der wir uns befinden.

5 Like

Ja, ich glaube auch, dass die Zeit wesentlich berücksichtigt werden muss, um zu beurteilen, was Intelligenz ist. Joscha sagt selbst, Pflanzen sind intelligent nur auf einer anderen Zeitskala. Sie bewegen sich auch auf einer anderen Geschwindigkeitsskala. Zudem fühlen sie wahrscheinlich auch und treffen Entscheidungen. Dazu finde ich ja das Bild vom Hund, der ein kohärentes Modell seiner Wirklichkeit erzeugt interessant. Er weiß dass er existiert und wo sein Platz ist und kann daraufhin Zukunft voraussagen. Und was wesentlich ist, nach einem Ziel Handeln und sich daraufhin wieder neu verorten, abgleichen, Entscheidung treffen etc. Er ist aber das vom Menschen wahrscheinlich am meisten domestizierte Lebewesen. Vielleicht muss man weiter vom Menschen entfernte Beispiele von Intelligenz heranziehen, um Intelligenz zu verstehen. Wenn man sich ohne Interaktion nur mit sich selbst beschäftigt, kommt am Ende nur man selbst raus. Quasi: „Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt.“ (Wittgenstein) So verstehe ich das Interview mit JWG ein wenig. Und seine Realität endet mit dem Ende der Datenfütterung. Was passiert aber, wenn man für verschiedene Anwendungen trainierte Deep Learning Algorithmen gegenseitig interagieren lässt? Vielleicht können Sie sich was beibringen? Ihre eigene Realität schaffen? Und würden wir das als Intelligenz verstehen? Oder braucht es so einen profunden Impetus von Überleben, Zukunft sichern, Wissen, das man endlich ist… :wink:

5 Like

Was ist Intelligenz? Pflanzen und Tiere verwenden sehr „intelligente“ Mechanismen, um ihr Überleben zu garantieren. Aber ich kenne keine Verhaltensweisen, die irgendwie eine vorausschauende Handlung beinhaltet, die ihre Lebensbedingungen zu ihrem Gunsten beeinflussen (ich bin aber kein Biologe!). der Mensch hat das zwar gelernt, angefangen von Steinbearbeitung bis hin zu Computern u.ä. Ob er dabei intelligent ist, lässt sich z.T. bezweifeln. Aber den Unterschied sehe ich in der Zukunfsplanung ohne direkten Zusammenhang mit dem Überleben. Ob der Mensch allerdings so intelligent ist, Verhalten zu entwickeln, die das Überleben seiner Nachkommen ermöglichen, muss ich stark bezweifeln. Da verhält er sich viel zu egozentrisch.

4 Like