Wenn wir KI verantwortungsvoll einsetzen, müssen wir die Superintelligenz nicht fürchten

Wenn wir von Künstlicher Intelligenz sprechen, schwingt immer noch ein Hauch von Terminator mit. Dabei hat das, was heute als KI unseren Alltag erobert, wenig mit derart superintelligenten Maschinen zu tun. Ein weniger ehrfurchtsvoller Blick auf die Technologie könnte uns dabei helfen, verantwortungsvoller mit ihren Stärken und Schwächen umzugehen.

Ein Essay von Wolfgang Kerler

Wieder eine Studie, die uns das Fürchten lehrt. Vereinfacht sagt sie das aus: Könnten wir eine Künstliche Intelligenz programmieren, die schlauer ist als wir, die selbstständig lernt, die über das Internet auf das gesamte Wissen der Menschheit zugreift und alle Maschinen der Welt kontrolliert, so wären wir nicht in der Lage, diese KI zu kontrollieren. Kein Algorithmus könnte dieser Superintelligenz, die dem menschlichen Intellekt weit überlegen ist, noch Grenzen setzen. Zu diesem Ergebnis kam jetzt ein internationales Team von Wissenschaftlerinnen und Wissenschaftlern. Und es wird noch apokalyptischer: Womöglich würden wir eine solche Superintelligenz nicht einmal erkennen.

Puh, dachte ich mir zunächst. Noch eine Forschungsarbeit, die sich spannend liest, aber am Ende keinen praktischen Nutzen für uns hat. Klar, vielleicht wird es irgendwann eine Superintelligenz geben. Und ja, es wäre bestimmt schlauer, wenn wir uns vorher darüber Gedanken machen, ob wir das überhaupt erstrebenswert finden. Doch aktuell hat das, was wir als Künstliche Intelligenz bezeichnen, wenig mit dem zu tun, was wir mit Intelligenz eigentlich meinen. Geschweige denn mit Superintelligenz. Warum also sollten wir uns in derart theoretischen Debatten ergehen, anstatt uns um reale Probleme zu kümmern?

Doch den Macherinnen und Machern der Studie ging es offenbar ebenfalls darum, uns bei unserer Faszination für Gruselgeschichten über allmächtige Maschinen zu packen, um auf aktuelle Entwicklungen hinzuweisen. „Schon heute gibt es Maschinen, die bestimmte wichtige Aufgaben selbständig erledigen, ohne dass diejenigen, die sie programmiert haben, komplett verstehen, wie sie das gelernt haben“, sagt jedenfalls Manuel Cebrian vom Max-Planck-Institut für Bildungsforschung, der an der Studie beteiligt war. „Daher stellt sich für uns die Frage, ob das für die Menschheit irgendwann unkontrollierbar und gefährlich werden könnte.“

Wichtige Feststellung. Wichtige Frage. Trotzdem befürchte ich, dass die Warnung vor der unkontrollierbaren Superintelligenz dazu beiträgt, dass wir Künstliche Intelligenz auch weiterhin viel zu oft als scheinbar magische Technologie ansehen – und nicht einfach als Werkzeug, das mal mehr und mal weniger hilfreich ist. Und über dessen Einsatz immer noch wir Menschen entscheiden. Das erschwert einen verantwortungsvollen Umgang damit.

Die Geschichte der KI beginn eigentlich mit einer Ernüchterung.

Das Missverständnis über das, was KI ist, hat seinen Ursprung vor über 60 Jahren. Ein Sommer und 13.500 Dollar sollten damals ausreichen, um eine Maschine zu konstruieren, die genau wie wir Menschen über Intelligenz verfügt. Von diesem Bedarf an Zeit und Geld ging eine Gruppe junger Wissenschaftler aus, als sie im August 1955 einen Förderantrag an die Rockefeller Foundation abschickte. Sie bekamen die Mittel und konnten sich im Folgejahr zur Konferenz von Dartmouth treffen, die heute als Geburtsstunde der Künstlichen Intelligenz gilt. Obwohl ihre Haupterkenntnis gewesen sein dürfte, dass KI nicht so einfach ist, wie man sich das anfangs vorstellte.

Nach ein paar Wochen trennten sich die Forscher, ohne ein Computersystem entwickelt zu haben, das auch nur im Ansatz intelligent war. Folgenlos blieb die Konferenz dennoch nicht. Im Gegenteil. Der Begriff der Künstlichen Intelligenz sollte nie wieder verschwinden, genauso wenig wie die damit verbundenen Vorstellungen: KI, das meint den künstlichen Nachbau menschlicher Intelligenz. Und es dürfte nicht mehr allzu lange dauern, bis uns dieser technisch gelingt.

Der Wirtschaftsnobelpreisträger Herbert Simon, zum Beispiel, schrieb 1965, dass es nur noch zwanzig Jahre dauern werde, bis Maschinen „jede Arbeit, die ein Mensch ausführen kann“, ebenfalls übernehmen können. Auch Marvin Minsky, der in Dartmouth dabei war, blieb seinem Optimismus treu. 1970 erklärte er im Magazin Life: „In drei bis acht Jahren werden wir Maschinen haben, die über die allgemeine Intelligenz eines durchschnittlichen Menschen verfügen.“ Beide lagen mit ihren Prognosen komplett daneben.

Die Science-Fiction setzte sogar noch einen drauf. Sie griff das historische Motiv des menschengemachten Golems aus Lehm wieder auf, der immer mächtiger wird und sich am Ende gegen seine Schöpfer wenden könnte. Im Science-Fiction-Klassiker 2001: Odyssee im Weltraum von 1968 mutiert der zunächst fürsorgliche Bordcomputer HAL 9000 zur digitalen Bedrohung, der das Raumschiff unter seine Kontrolle bringt. In unterschiedlichen Variationen wird diese Geschichte seitdem immer wieder erzählt. Von Neuromancer über den Terminator bis zu den Robotern aus Westworld.

Auch im Silicon Valley wird heute entweder vor unserer Vernichtung durch eine Super-KI gewarnt – etwa von Elon Musk – oder – wie von Ray Kurzweil – die Ankunft der Singularität ersehnt, der KI also, die intelligenter ist als wir und mit der wir zur nächsten Stufe der Evolution verschmelzen. Killer oder Heilsbringer. Dafür steht, etwas überspitzt, KI. Einerseits. Andererseits hat das, was Unternehmen heute als Künstliche Intelligenz verkaufen, wenig mit allmächtigen Maschinen zu tun, die die Welt beherrschen oder retten wollen.

Mustererkennung. Nicht mehr, aber auch nicht weniger.

Ja, KI wird heute mithilfe von künstlichen neuronalen Netzen entwickelt, deren Funktionsweise von den Neuronen in unserem Gehirn inspiriert wurde. Trotzdem sehen Maschinen die Welt ganz anders als Menschen. Während wir verstehen, was eine Katze ist, erkennt eine KI lediglich ein Muster, das ihr sagt, dass auf einem Bild mit hoher Wahrscheinlichkeit das zu sehen ist, was in ihren Trainingsdaten mit dem Tag „Katze“ versehen war.

KI bezeichnet vor allem Programme, die in großen Mengen von Daten durch das Ableiten aus statistischen Zusammenhängen auf Muster, Regeln oder Logiken stoßen. Die Systeme basieren auf maschinellem Lernen und werden mit Datensätzen trainiert, deren Umfang unser menschliches Gehirn meist überfordern würde. Fotos, Videos, Audiodateien, Texte, Excel-Tabellen und so weiter. Schon heute interagieren täglich Milliarden von Menschen mit Programmen, die genau darauf beruhen. Denn Mustererkennung mag trivial klingen, eröffnet aber viele Möglichkeiten, unser Leben einfacher, unterhaltsamer oder sicherer zu machen.

Alexa und Siri dechiffrieren die von uns gesprochenen Wörter. Autos parken sich selbst. Instagram verpasst uns Hundegesichter. Das Navi weist uns den schnellsten Weg. Spotify schlägt mit der Zeit immer erfolgreicher Musik vor, die unserem Geschmack entspricht. Google durchsucht das nahezu unendliche Internet nach den besten Antworten auf unsere Fragen.

KI kann Krebs frühzeitig erkennen. Sie warnt, bevor Maschinen ausfallen, optimiert das Design von Produkten oder den städtischen Verkehrsfluss und sie minimiert den Einsatz von Ressourcen in Fabriken, wodurch sie einen wichtigen Beitrag zum Klimaschutz leisten kann. Selbst Deepfakes basieren auf Mustererkennung. Und die Liste ließe sich noch lange fortsetzen.

Meldungen über neue Durchbrüche in der Entwicklung von KI bringen uns regelmäßig zum Staunen. Und weil in unseren Köpfen oft noch die in Dartmouth geprägte Vorstellung von Maschinen steckt, die über menschenähnliche Intelligenz verfügen, neigen wir dazu, voller Ehrfurcht auf KI zu blicken und ihre Fähigkeiten zu überschätzen.

Diese übertreffen zwar in vielen Bereichen längst die der Menschen, aber die Programme werden nur für ganz bestimmte Zwecke entwickelt. Eine universelle KI – oder eine Artificial General Intelligence – gibt es bisher nicht. Das heißt: Eine KI, die den Schachweltmeister besiegt, könnte ihn nach dem Spiel nicht nach Hause fahren, sein Geld maximal gewinnbringend anlegen und dann noch Energieverbrauch in seinem Haus optimieren. Sie kann eben Schach spielen.

Intelligenz macht noch kein Bewusstsein.

Der Zukunftsforscher Matthias Horx spricht auch aus einem anderen Grund von einem „KI-Irrtum“ oder eben einem „Missverständnis“. Aus seiner Sicht reden wir zwar ständig über Intelligenz , meinen aber Bewusstsein . Und das sei die eigentliche Voraussetzung dafür, dass Maschinen irgendwann nach Macht streben oder auf die Komplexität der Welt mit echter Kreativität und Gefühl antworten können. Doch ohne Fleisch und Sterblichkeit, Schmerz und Freude kein Bewusstsein, so Horx. Daher werde sich die Intelligenz von Maschinen immer von menschlicher Intelligenz unterscheiden.

Carla Hustedt, die bei der Bertelsmann Stiftung das Projekt „Ethik der Algorithmen“ leitet, hält den Begriff Künstliche Intelligenz ebenfalls für ein Problem. „Er vermittelt ein falsches Verständnis davon, was diese Systeme angeblich können“, sagt sie im Gespräch mit 1E9. „Ich habe manchmal das Gefühl, dass sogar die Warnungen vor den Risiken von KI als Verkaufsargument genutzt werden. Denn wenn wir Angst haben müssen vor der Superintelligenz, dann müssen die Produkte mit KI ja wirklich krass sein.“

Damit nicht genug. „Dieser Begriff der Künstlichen Intelligenz verschleiert außerdem die menschliche Verantwortung für derartige Systeme, weil er suggeriert, es würde sich um intelligente, autonom agierende Wesen handeln“, sagt Carla Hustedt. Tatsächlich gab es in den vergangenen Jahren genug Beispiele dafür, dass sich Menschen in Unternehmen und Behörden ihrer Verantwortung für KI-Systeme offenbar selbst nicht bewusst waren. Oder sie einfach ignorierten.

Der entscheidende Haken an Programmen, die auf maschinellem Lernen basieren, ist nämlich dieser: Oft wissen weder diejenigen, die KI nutzen, noch diejenigen, die sie entwickeln, wie genau sie funktioniert – und ob sie so funktioniert, wie sie funktionieren soll. Denn beim maschinellen Lernen bringen sich die Programme das, was sie tun, selbst bei. Sie werden of zur regelrechten Black Box. Genau darauf sollte auch die Studie über die unkontrollierbare Superintelligenz aufmerksam machen. Die Qualität von KI hängt außerdem entscheidend von der Qualität der Trainingsdaten ab. Lückenhafte, unausgewogene Datensätze führen zu schlechten Ergebnissen.

Auch Künstliche Intelligenz macht Fehler.

Obwohl das nicht neu ist, unterlaufen selbst – oder gerade? – den größten Technologie-Konzernen, denen man einen souveränen Umgang mit KI zutrauen sollte, erstaunliche Fehler, die teils erst dann auffallen, wenn Anwendungen längst im Einsatz sind. Manchmal sind sie nur lästig, zum Beispiel wenn Netflix langweilige Filme vorschlägt. Manchmal sind sie richtig bedauerlich. Zu oft haben sie sogar gravierende Folgen für das Leben einzelner Menschen oder für die ganze Gesellschaft.

Wenn ein Bilderkennungsprogramm von Google schwarze Menschen als Gorillas oder Schimpansen identifiziert, ist das für Betroffene verletzend – und ein Indiz dafür, dass weder die Trainingsdaten noch das Entwicklungsteam divers genug waren.

Auch Amazon musste diese Lektion lernen. Der Konzern wollte eine KI-basierte Software einsetzen, um aus den vielen Bewerbungen die besten Kandidatinnen und Kandidaten herauszufischen. Allerdings wurde das Programm mit Daten über die bisherige Belegschaft trainiert – und da diese vor allem aus Männern bestand, ging die KI davon aus, dass männlich zu sein ein wesentlicher Erfolgsfaktor ist. Die Bewerbungen von Frauen wurden daher systematisch schlechter eingestuft. Fällt so ein Problem nicht auf, können ganze Karrieren ruiniert werden.

Die Algorithmen von YouTube und Facebook wiederum, deren Ziel es sein dürfte, die Leute möglichst lange vor dem Bildschirm zu halten und sie zu möglichst viel Engagement zu animieren, verhalfen Hass, Hetze und Verschwörungstheorien zu gigantischen Reichweiten. Sie lernten, dass sich Menschen damit ködern lassen – und setzten ihnen immer mehr davon vor. Für demokratische Gesellschaften, die auf ein gemeinsames Fundament an Fakten und eine intakte Debattenkultur angewiesen sind, kann das gefährlich werden. Zumal ohne transparente Regeln.

Nun sind Google, Amazon und Facebook privatwirtschaftliche Unternehmen und jeder kann selbst entscheiden, ihre Dienste zu nutzen oder nicht. Theoretisch können wir uns dem unmittelbaren Einfluss ihrer Algorithmen also entziehen – eingeschränkt durch die Tatsache, dass die KI-Systeme der großen Tech-Unternehmen auch in vielen anderen Organisationen verwendet werden. Wenn allerdings der Staat auf Künstliche Intelligenz setzt, können wir gar nichts unternehmen. Leider sorgen gerade Behörden immer wieder für KI-Negativschlagzeilen.

In den USA werden immer wieder Fälle dokumentiert, in denen der Einsatz von Gesichtserkennungssoftware zur Verhaftung Unschuldiger führte. Aktivisten kritisieren außerdem, dass sich amerikanische Gerichte bei ihrer Urteilsfindung zunehmend auf KI verlassen, die mit historischen Kriminalitätsdaten trainiert wurde. Ihre Ergebnisse können daher nur auf Korrelationen, nicht auf Kausalitäten beruhen. In Großbritannien wiederum musste die Regierung nach Protesten ein Programm einstampfen, das per Algorithmus die Abschlussnoten von Schülern bestimmen sollte. Diese fielen plötzlich viel schlechter aus als die Noten durch Lehrkräfte.

KI kann keine Verantwortung übernehmen.

Noch ist der Einsatz von Künstlicher Intelligenz nicht umfassend reguliert. In Ethikkommissionen, im Bundestag oder auch im Europaparlament werden Vorschläge diskutiert und Gesetze vorbereitet. Auch Verfahren, mit denen geprüft werden kann, ob KI-Systeme überhaupt funktionieren und sicher sind, gibt es bereits. Gerade hat auch der TÜV ein entsprechendes Labor gestartet. Besserung ist also in Sicht. Bis dahin ist KI aber ein bisschen Wilder Westen. Und ich befürchte, dass unser ständiges Gerede über Superintelligenz und Singularität dazu führt, dass Programme mit dem Label „Künstliche Intelligenz“ schnell für unfehlbar gehalten werden – und für so kompliziert, dass man sie sowieso nicht durchschauen könnte und sich aus Debatten darüber fernhält. Passieren dann Fehler wird das auf „die KI“ geschoben und Menschen und Unternehmen können sich aus der Verantwortung stehlen.

Doch hätten sich Firmen und Behörden an die vielen Vorschläge zum verantwortungsbewussten Einsatz von KI gehalten, die in den vergangenen Jahren bereits erarbeitet wurden, wäre es zu den oben beschriebenen Fällen wohl nie gekommen. Ein Beispiel für so ein mögliches Regelwerk sind die vom iRights.Lab und der Bertelsmann Stiftung zusammen mit einem Fachgremium formulierten Algo.Rules.

Verstehe, was die Zukunft bringt!

Als Mitglied von 1E9 bekommst Du unabhängigen, zukunftsgerichteten Tech-Journalismus, der für und mit einer Community aus Idealisten, Gründerinnen, Nerds, Wissenschaftlerinnen und Kreativen entsteht. Außerdem erhältst Du vollen Zugang zur 1E9-Community, exklusive Newsletter und kannst bei 1E9-Events dabei sein. Schon ab 2,50 Euro im Monat!

Jetzt Mitglied werden!

Menschen, Behörden oder Unternehmen, die beschließen KI zu entwickeln oder einzusetzen, sollten sich demnach vorher fragen, ob sie selbst ein ausreichendes Verständnis davon haben, wie die Programme funktionieren. Sie müssen klären, was die Folgen des Einsatzes für andere Menschen sein könnten. Sie müssen kommunizieren, welcher Person oder Firma für die KI verantwortlich ist. Bevor ein Programm zum Einsatz kommt, muss außerdem dessen Sicherheit geprüft werden. Und die Nutzerinnen und Nutzer, die am Ende mit dem System interagieren, sollten darauf aufmerksam gemacht werden, dass es sich um KI handelt und auf Wunsch eine Erklärung bekommen, wie diese in etwa funktioniert. Selbst bei Programmen, die auf maschinellem Lernen basieren, lässt sich zumindest kommunizieren, auf welcher Datengrundlage sie basieren und welche Zielsetzung sie haben. Beschwerden bei möglichen Fehlern sollten ebenfalls möglich sein.

Die Superintelligenz ist längst nicht da. Wir können den Einsatz von Künstliche Intelligenz kontrollieren. Deshalb sollten wir das auch tun. Wenn wir jetzt unserer Verantwortung gerecht werden und die Gesetze, Normen, Prüfverfahren und Workflows etablieren, um Risiken zu minimieren, damit wir Chancen nutzen können, werden Wissenschaftlerinnen und Wissenschaftler auch keinen Grund mehr haben, uns vor den Gefahren der Superintelligenz zu warnen. Dann würden wir nämlich gar nicht erst auf die Idee kommen, eine Maschine zu erschaffen, die uns überlegen ist und sich nicht kontrollieren lässt. Vielleicht sollten wir außerdem darüber nachdenken, wie wir den Begriff Künstliche Intelligenz einsetzen – und ob uns nicht ein paar alternative Formulierungen einfallen.

Dieser Artikel ist Teil des 1E9-Themenspecials „KI, Verantwortung und Wir“. Darin wollen wir herausfinden, wie wir Künstliche Intelligenz so einsetzen, dass die Gesellschaft wirklich davon profitiert. Alle Inhalte des Specials findest du hier.

Titelbild: Das rote Kameraauge von HAL 9000. Bild: Getty Images

11 „Gefällt mir“

Das waren meine Gedanken zum Thema. Mich würde interessieren, wie ihr die Debatte rund um Superintelligenz und den Begriff KI bewertet? Auch eher kritisch… oder bleibt ihr gelassen? Und wie zufrieden seid ihr mit dem KI-Einsatz durch Unternehmen bisher?

4 „Gefällt mir“

Generell bleibe ich erstmal gelassen, der Weg zur Superintelligenz ist noch lange und wie der Fusionsreaktor wahrscheinlich für immer 20 Jahre in Entfernung. Wichtig ist aber, dass man schon jetzt KI verantwortungsvoll einsetzt. Die genannten Beispiele - Youtube und Amazon Bewerberauswahl - zeigen anschaulich, dass es auch mal schnell nach hinten losgehen kann, wenn man sich als Entwickler der Folgen nicht bewusst ist. Hier hilft uns verstärkt der Ansatz der Explainable AI, der zu einer Entscheidung eines Algorithmus auch die ausschlaggebenden Parameter anzeigt und diese so erklärt. Wichtig bei der ganzen Debatte ist allerdings, dass wir hier global agieren müssen. Es ist schön wenn Europa feste Regeln aufstellt, aber wenn sich sonst niemand dran hält haben wir schnell einen Wettbewerbsnachteil.

6 „Gefällt mir“

Danke für den klasse Artikel, @Wolfgang, der viele Aspekte der aktuelle Diskussion sehr schön sammelt und aufbereitet! Du fragst, ob wir bei dem Thema gelassen sind? Nein, ich keinesfalls! Ich bekomme sogar richtigen „Blutdruck“. :angry:

Wir lassen zu, dass mit KI-basierten Diensten (oder Vorentwicklungen) Kapital von Investoren gesammelt wird oder Marktmacht (als Plattform) durch „Sammlung“ von Nutzer(daten) aufgebaut wird. Das sind dann ökonomische Voraussetzungen, um richtig viel Geld zu verdienen (man schaue sich die gigantischen Prognosen an). Diese geschaffenen Fakten sind aufgrund der Beharrungskräfte von einmal eingeschlagenen Pfaden so gut wie irreversibel. Und das alles mit digitalen Diensten, die unausgereift sind, um es mal deutlich zu sagen! Denn zu einem Produkt gehört eben nicht nur seine Kernfunktion, sondern auch Schadensvermeidung bei der Nutzung, Sicherheit, Beitrag zum Gemeinwohl etc. Wir wollen Menschenwürde, Nachhaltigkeit und Fairness? Dabei nutzen wir Services, die uns die Mündigkeit nehmen, über Entscheidungen, die über uns getroffen werden, überhaupt informiert zu sein (von Widerspruch mal ganz zu schweigen), von Services, die Vorurteile reproduzieren und sogar neue hervorbringen etc.? Die „Transaktionskosten“ von Bürger:innen, Nutzer:innen oder Unternehmer:innen etc. um die ethische Qualität einer KI-basierten Anwendung zu prüfen, gehen gegen unendlich. Wenn man es vernünftig betrachtet, können Anwender:innen – weder privat noch B2B - aktuell keine Verantwortung für die Anwendung übernehmen. Das müssten sie aber tun, dann sie speisen ja auch ihre Daten (und die anderer) in die Anwendung und nutzen die Entscheidungen für Leben und Business. Es ist aus meiner Sicht fahrlässig, ihren Einsatz überhaupt zuzulassen. Warum passiert es trotzdem? Aus dem gleichen Grund, weshalb die Emission von Treibhausgasen - trotz Erkenntnisse über die Klimafolgen - jahrzehntelang ungebremst und kaum hinterfragt war. Weil die Folgen „diffus“ sind, weil zu wenige Akteure davon profitieren, dies in Frage zu stellen.

Konsequenterweise dürften wir die KI-basierten Dienste aus diesen Gründen nicht nutzen. Wir haben die Wahl, schreibst Du? Nein, das denke ich nicht. Nicht, wenn wir unserem Grundbedürfnis, Teil einer sozialen Gemeinschaft zu sein, nachkommen wollen. Oder im Job bestimmte digitale Tools an die Hand bekommen oder als Unternehmer:in die Zukunft des Unternehmens sichern wollen.

Die Dynamik der technologischen Entwicklung gepaart mit den globalen Vermarktungsmechanismen führt die Gesetzgebung und unsere gesellschaftlichen Institutionen an ihre Grenzen. Es ist unsere Aufgabe gemeinschaftlich aus diesem Prozess zu lernen und neue wirksame globale (!) Schutzmechanismen für Menschenrechte, Gemeinschaft, Demokratie etc. zu entwicklen. Damit es zukünftig, und auch falls eine Superintelligenz entwickelt wird, besser läuft als bisher.

Ich habe meine Perspektive einmal bewusst zugespitzt. Wie seht ihr das? Übertreibe ich oder sehe die Situation zu negativ?

Noch eine Ergänzung zum Begriff „Künstliche Intelligenz“: Ich versuche in den verwendeten Begriffen nicht zu sehr die Technologie in den Mittelpunkt zu stellen, sondern die Anwendung, wie eben KI-basierte Dienste bzw. Produkte. Oder auch „Automatisierte Entscheidungsfindung“ (Automated Decision Making, ADM), denn genau darum geht es in Unternehmen. Ich finde, dass allein der Begriff schon erdet und für Klarheit sorgt.

5 „Gefällt mir“

Danke Wolfgang für den großartigen Überblick. Ich teile den Gedanken von Horx und Dir: ohne Biologie kein Bewusstsein. Das Naheliegende: Human Enhancement oder Biological Enhancement. Biologie mit Computern und Algorithmen koppeln. Kommen wir dann zu einer „Superintelligenz“? Und was passiert dann - mit uns und mit den Lösungen, die wir erschaffen?

3 „Gefällt mir“

Da wären wir dann doch wieder bei Elon Musk. Der sieht ja die größten Chancen auch darin, wenn wir unsere Gehirne direkt mit KI verbinden. Also noch direkter als per Smartphone. Aber vielleicht braucht es gar kein Menschengehirn dafür:

3 „Gefällt mir“

Die Thematik hätten man nicht besser darstellen können!
In der Tat führt die ganze Debatte über Super Intelligence eher dazu dass Leute gegenüber KI auf eine abstrakte Art und Weise abgeneigt sind. Frag man auf der anderen Seite aber bzgl. eines konkreten Use Cases, z.B. ob man vom Arzt mit höherer Fehlerquote oder von Arzt mit KI mit niedriger Fehlerquote diagnostiziert werden möchte, ist die Antwort viel positiver.
Deswegen sollte man möglichst viel über konkrete Anwendungsfälle reden und deren Nutzen aufzeigen anstatt über die abstrakte KI. Die KI sollte vielmehr im Hintergrund sein und ob das jetzt KI war oder eine nicht intelligente Software war, sollte keinen Unterschied machen. Im Gegenteil ist es eigentlich in vielen Bereichen sogar fahrlässig nicht schneller KI einzusetzen, weil der Mensch aktuell viel zu viele Fehler macht (Verkehrstote, Fehldiagnosen, Biased Kreditentscheidungen).

6 „Gefällt mir“

Wenn es um das Nachbilden jener (kognitiven und emotionalen) Fähigkeiten geht, die mutmaßlich uns Menschen vorbehalten sind, kann schon Misstrauen entstehen. Wie du schreibst, dominiert deswegen auch die Angst vor Kontrollverlust häufig den Diskurs zu KI. Die Sorge: Autonomie von technischen Systemen bei gleichzeitiger Autonomie von Menschen führt zu Konflikten.

Das Faszinierende und gleichzeitige das Problem bei KI ist ja dessen Potenzial, nicht so sehr was entsprechende Systeme heute können. Es ist die Angst oder die Hoffnung einer unbeherrschbaren exponentiellen Skalierung von KI als Technologie.

Das ist auch ein Problem für die KI-Regulierung, die ja das Schadens-Potenzial einschätzen muss, um passende Kriterien für den Einsatz von KI-Systemen festzulegen. Aber auch hier gibt es ja schon einige Überlegungen und Maßnahmen (vgl. Ein Überblick aktueller KI-Regulierung). Die bisherigen Whitepapers zeigen deutlich: Bestehende Regularien greifen bereits ausreichend, wenn auch die Rechtssicherheit gesteigert werden kann.

Der europäische Weg darf dabei nicht darin liegen, erst bei ausreichenden Regularien KI-Systeme zu skalieren. Erst durch die schrittweise Einführung von KI-Systemen werden konkrete Anforderungen an eine etwaige Regulierung ersichtlich. Es kann nur ein inkrementieller Prozess sein.

Diese schrittweise begleitende Einführung von KI-Systemen zeigt sich auch auf technischer Ebene: Derzeit herrscht noch überwachtes Lernen vor, selbstlernend sind diese Systeme also nicht wirklich. Wir müssen also auch die Grenzen von KI-Systeme kennen, um einen verantwortungsvollen Einsatz zu ermöglichen!

3 „Gefällt mir“

Ich habe in der Praxis seit ein paar Jahren, mit so genannten KI Systemen und deren Einsatzgebieten zu tun. Ich glaube speziell wir in Europa machen uns da eine komplett falsche Vorstellung davon, was mit künstlicher Intelligenz (AI) gemeint ist und was man damit real anfangen kann.
Sind wir mal ehrlich, in den 80er Jahren haben wir mühsam Vektorprobleme, mit stochastischen Methoden gelöst. Warum? Wir hatten zu wenig Rechenleistung!
Seit etwa 2012 hat man verstanden, wenn man Vektorrecheneinheiten (Grafikkarten) benutzt, kann man komplexere Probleme schneller lösen. Das hat zu einem Boom derartiger Anwendungen und Lösungen geführt. Warum, weil es eben geht, derartige mathematische Probleme schneller und effizienter zu lösen.

Dadurch und durch neue Sensoren können wir kleinere neuronale Netzwerke nachbilden und damit wiederkehrende Themen sehr effizient und besser lösen als früher. Die Systeme werden besser daher sind komplexere Themen lösbarer geworden.

Damit ist es überhaupt erst möglich autonom zu fahren. Nach Definition Level 5 vollkommen autonom agierende Fahrzeuge sind unter Fachleuten heiß diskutiert laut diesen in ca. 30 - 50 Jahren nutzbar. Vorher braucht das System den Entscheider Mensch um Lösungen zu unterstützen.
Der ultimative Erdbeerpflückroboter funktioniert seit 2019 relativ gut und kann Erdbeeren identifizieren. Soll er etwas anderes pflücken scheitert das System bevor es anfängt zu pflücken an der Erkennung der Frucht.

Spracherkennnung und speziell Schrifterkennnung geht über Algorithmen in Verbindung mit selbstlernenden neuronalen Netzen relativ gut und viel besser als früher. Nur machen wir uns nichts vor es ist immer noch klar erklärbare Mathematik.

Das Erkennen eines Gesichts geht heute im Wesentlichen nur deshalb besser, weil wir in höherer Auflösung und besser Detaillierung in Echtzeit rechnen können.

Alle diese Dinge sind eine bessere Technologie als vorher und sollten als solche gesehen werden. Durch verschiedenste Innovationen hat sich unserer Arbeitswelt seit mindestens 100 Jahren immer schneller verändert und wird es weiter tun. Jetzt gibt es eben bessere Computer mit mehr Rechenleistung, die zu besserern Handlungen fähig werden.

In Bezug auf s.g. künstliche Intelligenz würde ich ab der gleichen geistigen Leistungsstufe mit einem Primaten ansetzen und bis dahin wird sehr viel Zeit vergehen wenn das unter 100 Jahren möglich ist sind wir extrem gut und fortschrittlich gewesen.

Nur zur Erklärung über was wir diskutieren und das ist so weit von einer Superintelligenz weg, wie die Grenze unseres Sonnensystems!

4 „Gefällt mir“

Danke für diesen Satz. Kann ich nur unterstreichen - wir forschen an und arbeiten mit einer Artificial General Intelligence, die menschlicher Intelligenz etwas näher kommt als die klassische AI, und von Superintelligenz weit und breit keine Spur. Da wir uns zwangsweise intensiv mit Neurowissenschaft, Psychologie und Philosophie beschäftigen um unsere Technologie weiterzuentwickeln - vor allem die Trainingsstrategien - kann ich nur sagen: alles in der verlinkten Studie ist reines Kopfkino.

3 „Gefällt mir“

Youtube hat abgesehen vom desaströsen Einsatz von „KI“ bei Bewerbungsprozessen einen großen ökonomischen Erfolg mit dem Empfehlungsalgo der Videoplattform eingefahren. Irgendwann zwischen 2012 und 2016 wurde die „north-star-metric“ erreicht, 1 Milliarde Seherminuten täglich zu erzielen. Und damit die Werbeeinnahmen explodieren zu lassen.
Die Downside darf nun die globale Gesellschaft ausbaden: Millionen Menschen, die einen individuellen Realitätsverlust erlitten weil sie in Verschwörungs-, Weltuntergangs-, und Anitwissenschafts-Blasen verloren gingen. Flatearth ist hier noch die harmloseste Ausprägung, Massenmörder und Trumpismus, Klimaleugnung, Corona-Leugnung, Brexit, AfD, FPÖ, Bolsonaro, Putin und generelle Demokratiezersetzung fordern massenhaft Menschenleben und die zerstörung der ökologischen Lebensgrundlagen.
Google bzw. Alphabet gehört meiner Meinung nach vor dem int. Menschrechtsgerichtshof angeklagt und zur Verantwortung gezogen. Just my 2 eurocents.

3 „Gefällt mir“

Guten Morgen, in den Kommentaren, besonders in dem letzten Satz von gh1, wird die Dimension des Risikos deutlich!
Als ich vor der Jahrtausendwende vom „Internet als der größten Atombombe aller Zeiten“ sprach, war ich mir meiner Falscheinschätzung nicht bewusst, die ausgelöste Katastrophe ist noch viel schlimmer!
Sieht man sich die Bilder der Zerstörung der japanischen Städte an, und stellt sich vor, das aktuell über 10.ooo solcher Bomben weltweit existieren sollen! und überlegt dann den Nutzen einiger AKWs zur Energiegewinnung mit ihrem gefürchteten Risiko, werden die Verhältnismäßigkeiten deutlich!
Der Gefahr, das uns Konkurenten durch noch bessere Computer überflügeln können, mit einer noch größeren Gefahr entgegenzutreten, ist der Wettlauf der Menschheit untereinander!
Das wir Menschen als Menschheit auf den Wert von Waldameisen reduziert werden, falls wir überleben, will aber keinem Forscher, oder Entwickler bewusst sein!
Wir schaufeln unser eigenes Grab - allerdings nicht mit Hacke und Schaufel, sondern mit den Baggern aus dem Braunkohletageabbau!
Das das Internet seit den 1990er Jahren für gravierend schnelleren Informatiosaustausch positiver weise gesorgt hat, ist nicht zu bezweifeln. Aber man MUSS auch die damit erst möglichen Verwerfungen, Schäden an Erde und Menschheit akzeptieren! Und man MUSS nicht den Vorteil einer „optimalen medizinischen Diagnose“ als Vorteil der Menschheit darstellen, wenn nur einzelene den Vorteil nutzen können.
Vergleichbar wäre, wenn der Bundeskanzler/in/s demnächst im Privatjet zum Mond reisen könnte und alle dafür auf Auto und Motorrad verzichten müssen!
Denn, sind wir uns darüber im Klaren: es gibt schon jetzt eine ganz brutale drei-Klassen-Medizin! Die für besondere Privat-Patienten, die für Normale Patienten und die für Menschen ohne Versorgungssystem!
Da wird in der aktuellen Pandemie die medizinische Versorgung eines Erdteils wie Afrika als wirtschaftlich nicht relevant eingestuft! Mit Sicherheit wird auch Afrika irgendwann geimpft werden, aber nicht aus Menschlichkeitsgründen, sondern wegen der Bodenschätze, die Nichtafrikaner gerne hätten.
Diese -unmenschliche- Betrachtungsweise, jetzt schon durch Menschen getätigt, lässt doch auf die maschinelle Betrachtungsweise Schlüsse zu. Den Optimismus, das Maschinen mit KI gesteuert, da menschlicher ageren, kann ich nicht teilen.
Aber glücklicherweise bin ich alt genug, das ich keine Angst vorm Sterben hab.

1 „Gefällt mir“

Ich glaube eher das man sich die Entwicklung in der Dynamik und Leistungsfähigkeit grundsätzlich ansehen sollte und nicht in der Momentaufnahme. Diagnosen per Daten und KI werden günstiger und besser und schneller möglich als Menschen das je tun könnten. Dass wir jetzt zum Teil nur an Forschungsinstituten und Kliniken über neue Technologie verfügen ist normal. Wir haben es als Gesellschaft und Politik in der Hand den Rahmen Sinus setzen dass viele möglichst profitieren.

Über Zeit jedenfalls werden diese verfahren quasi zur „Commodity“, und allgemein verfügbar zu sehr geringen Kosten. Nur so wird man das verkorkste Gesundheitssystem vielleicht grundlegend und positiv ändern.

Man kann natürlich, weil Technik grundsätzlich wertfrei ist, auch negativ kategorisieren und worst case Szenarien in den Vordergrund stellen. Was man damit macht und wie man die KI Welt sieht ist größtenteils Einstellungssache. So könnte man statt den Tod zu fürchten auch überlegen wie so eine Kraft auch zur Bekämpfung der Klimaveränderungen / globalen Ungleichheiten etc genutzt werden könnte …

3 „Gefällt mir“

Die Frage der Verantwortung ist hier tatsächlich sehr interessant. Die Algorithmen haben ja im Prinzip gelernt was besonders gut das Interesse des Publikums weckt und das waren eben krude Verschwörungstheorien etc. Wenn Leute sich nicht besonders für solche Dinge sondern für z.B. Politik interessieren würden, würde der Algorithmus dementsprechend auch so etwas vorschlagen. Kann man also Google etc. dafür verantwortlich machen, dass sich Leute mehr für „Quatsch“ interessieren? Haben die großen Tech-Konzerne sozusagen einen „Bildungsauftrag“ oder müssten so reguliert werden, dass sie die Empfehlungen weg von den Interessen des Publikums lenken? Auch das denke ich ist gefährlich, da man sich damit an den Grenzen der aktiven Meinungslenkung bewegt. Es ist eine sehr schwierige Frage und ich habe auch keine perfekte Antwort, aber meiner Meinung nach hilft gegen Verschwörungstheorien bessere Bildung und sozialer Ausgleich mehr als die Beschränkung von Tech-Konzernen.

1 „Gefällt mir“

Dem ist nicht zu widersprechen! Aber
a) wieviel gesunde Menschen haben einen Nutzen?
und
b) am Beispiel von Kern-Spin-Tomografen erklärt:
wie häufig haben Menschen die Chance, bedürftig in die Nähe solcher Maschinen zu kommen?
schon jetzt sind diese Geräte mit Wartezeiten von min 5-6 Wochen ausgelastet und
umgekehrt unterliegen diese Maschinen einer Wirtschaftlichkeit, was die Zahl der möglichen Patienten/Lebenszyklus der Maschine betrifft, was wiederum den Preis für eine Untersuchung steuert. Wollen wir jetzt solche Geräte für JEDERMANN verfügbar machen, hätten wir keine Zeit mehr, für andere Aufgaben zu arbeiten. Auch Arbeitssteilung löst das Mangelproblem, das wir Menschen nur 24 Stunden/Tag zur Verfügeung haben, NICHT!!!
und
c) wenn die Menschheit jetzt dem Irrglauben verfällt, das Maschinen mit KI das Bedürfnis entwickeln, uns Menschen wie Haustiere liebevoll zu umsorgen, sollte sich den Umgang der Schöpfer solcher Maschinen mit der Natur ansehen -

2 „Gefällt mir“

Ich glaube das ist nur ein Beispiel von sehr vielen.

Zunächst sollten Daten anonymisiert zur Verfügung gestellt werden damit es keine Silos gibt bzw. die Zugänglichkeit und Innovation für den Menschen arbeitet.

Auf Geräteseite tut sich extrem viel in vielen Bereichen. Angefangen bei Verfügbarkeit von Genom sequencing für jeden, bis zum Proteom als neue Bastian die fallen wird. Eine Vielzahl an biomarkern wird messbar und Trackballs. Über den Puls und Blutdruck hinaus. 3d Scans des Körpers von aufenhintergrund werden sogar per Consumer device in dieser Dekade möglich. Dann wird zB die Vielzahl der Menschen die altersblind werden über Netzhautsegeneration evtl nicht mehr blind weil sie den krankheitsprozess früher per App sogar und zu low cost erkennen.

Einmal in der Woche zu Hause ein Tropfen Blut scannen und schon weiß man über hunderte Proteine sehr gut Bescheid was gerade im Körper passiert.

Diese korrelationen und Signaturen zu erkennen und hochindundividuell sogar im Alltag verfügbar zu haben ist die Zukunft die Technologie schon heute abzeichnet.

Das alles hat noch nichts mit super KI und Terminator zu tun sondern mit sehr „dummen“ mustererkennern. Und natürlich einem Geschäftsmodell das den Menschen und die Gesundheit im Vordergrund sieht.

Aus meiner wartetest die größte Gefahr nicht die Technologie sondern die Menschen, ihre Gier, und Geschäftsmodell die konstluche Mauern hochziehen, um Verfügbarkeit knapp zingelten und Preise hochzuhalten.

2 „Gefällt mir“

Lieber Wolfgang, zu deiner Bemerkung zur Black Box!

Ein wirklich super Artikel und wie die Postings zeigen, gehen die Überlegungen in diesem Forum, alle in deine Richtung. Was hier aber bisher hier nicht diskutiert wurde ist der Hinweis auf die „Black Box“ die in selbstlernenden Systemen entsteht. Weil hier ähnlich wie im Behaviorismus in Reiz - Reaktionsmustern gedacht wird und wir eigentlich die Beurteilungskriterien der durch die Maschinen erkannten Mustern nicht wissen und damit nicht schlüssig nachvollziehen können, wie die „KI“ zu ihrem Ergebnis kommt.

Dies Black Box zu erforschen wäre doch gerade die Herausforderung unserer Zeit! Hier bietet sich die Möglichkeit, vielleicht grundlegende Denkfehler, neue Sichtweisen oder der Einfluss der menschlichen Verhaltens auf den Erkenntnisgewinn zu verstehen etc. ! Hier tut sich ein riesiges Forschungsfeld auf. Denn es bietet möglicherweise einen etwas anderen als einen rein menschlichen Blick auf unsere Realität.

Was aber für mich nicht heißt, dass der menschliche Blick ausgeschaltet werden soll, ganz im Gegenteil kann er dadurch geschärft werden.

Maschinen bzw. eine künstliche Intelligenzen zu bauen die dem Menschen weit überlegen sind, entspringt nach meiner eigenen Beurteilung tiefenpsychologisch gesehen Allmachtsgefühlen, Hass und Revanche(Rache)fantasien im Sinne einer Superheroprojektion.

Maschinen zu bauen die uns nicht (wirklich !) dienlich sind und Menschen zerstören kennen wir aus dem militärischen Bereich zur Genüge und genau deshalb sehe ich in unsere Selbstverantwortung, die du hier zu meiner großen Freude in die Diskussion einbringst, ein ganz wichtige Komponente in dieser Diskussion.

Aber um nochmals darauf zurück zu kommen, die Erforschung der „Black Box“ ist für mich eine der vordringlichsten Herausforderung, wenn wir von Systemen sprechen die unserer menschlichen Denkkapazitäten unterstützen sollen.

Denn von einer Superintelligenz sind wir weit weg. Hier würden dann auch die Frage auftauchen, welche Funktionen hat das Unbewusste, das Vergessen. Wenn wir heute die neuen wissenschaftlichen Erkenntnisse zu Autismus betrachten, lauten diese: Autismus entsteht nicht aus einem Mangel oder Unvermögen von Reizverarbeitung sondern aus einer Überflutung von Reizen aus einem Mangel an selektiver Reizaufnahme, Verdrängung und Vergessen, daher möglicherweise auch die besonderen Sonderbegabungen von autistischen Menschen.

Das heißt, Superintelligenz wie wir sie heute fantasieren, wären auch super autistisch!

Also auf, an die Erforschung der Black Box!

Liebe Grüße an die vielen engagierten Menschen auf dieser Plattform

3 „Gefällt mir“

Mit all den negativen Aspekten, die KI Applikationen heute mit sich bringen, glaube ich, dass wir genau durch diese Mängel neue Perspektiven auf uns selbst gewinnen und Tatsachen als solche sehen können, die uns sonst verborgen gleiben.

Unabhängig vom Black-Box Problem werden KIs ( neuronal netze) mit sehr vielen Daten gefüttert. Dass hierbei nun ein bias rauskommt verwundert nicht. Konzentriert jedoch in die KI werden diese Biases die ohnehin faktisch in der Gesellschaft vorliegen nur über das „KI Ding“ deutlich.

Wir können Brustkrebs bei weissen Frauen besser erkennen als bei schwarzen Frauen. Weisse werden per KI eher eingestellt als Schwarze, Bias in der Gesichtserkennung führt zu fehlerhaften Rechtsschritten… etc etc.

Diese Ungleichheit gibt es faktisch. Das zeigen Daten at scale. Nur können wir diese Breite an Daten nicht einfach erfassen. Eine KI jedoch schon. Sie ist Produkt dieser breiten und verfügbaren Daten. Und zeigt uns direkt die Probleme, die wir angehen sollten auf.

Das erzwingt also Handlung. Nicht aus Angst eine biased Fähigkeit die, wenn auch erst nur für eine Minderheit, besser ist, tot zu regulieren. Sonder schnellstmöglich dafür Sorge zu tragen, dass ein solche Bias nicht mehr vorhanden ist.

Damit werden Handlungsstränge auch sehr konkret. Und Verantwortungsvoller Umgang beginnt dann im Hier und Jetzt und wie wir die nächsten Schritte gestalten und nicht unbedingt in der Angst und dem sich Verschließen gegenüber dessen was heute halt gerade machbar ist.

1 „Gefällt mir“

Dass wir uns mit der momentanen Entwicklung auseinandersetzen müssen ist klar. Ich denke aus meinen Ausführungen geht klar hervor, dass eine KI von programmiert wird und daher auch menschliche Eigenschaften und Vorurteile in Programmprämissen, Designs und Vorstellungen mit einfließen. Ich bin mir sicher, dass sie sich auch in Algorithmen der „Black Box“ zu finden sind.

3 „Gefällt mir“

Die Debatte ist im Arsch und wird missbraucht, um der Tech- und Rüstungsindustrie immer mehr Fördergelder zuzuspielen
Ein sehr guter Überblick über die Thematik der ethischen KI, der vor allem eine Gefühl hinterlässt: irgendetwas stimmt da nicht. Das wirkt wie eine inszenierte Debatte. Für die ein Seite, die Optimisten, ist die KI die Lösung vieler Probleme, die einfach nur etwas besser betreut werden muss, um technische Bugs auszuschließen (wozu dann auch Diskriminierung gezählt wird). Für das andere Lager, die Pessimisten, ist die KI eine Terminator-Dystopie, für die wir intensiv vorkehren müssen, um nicht alle gekillt zu werden. Das gemeinsame des „optimistischen“ und des „pessimistischen“ Szenarios ist, das eigentlich beide optimistisch davon ausgehen, dass KI trotz aller Bedenken immer stärker eingesetzt werden müsse und wir da schon irgendwie eine Lösung finden. Die einen wollen irgendwie ethische Standards im Code hartverdrahten. Die anderen wollen zusätzliche Software entwickeln, die KI-Software kontrolliert oder zumindest erklärt. Auf jeden Fall wird es eine technische Lösung geben.

If your only tool is a hammer, everything looks like a nail
Mag sein, dass die Ingenieure und Forscher tatsächlich an den technischen Lösungsansatz glauben - und vielleicht gibt es den ja auch -, aber für mich ist das alles Bockmist-Gelaber der Techfirmen und Verteidigungsministerien, um zusätzliche Fördergelder zur Aufrüstung der technischen KI-Personal- und Infrastrukturressourcen zu bekommen. Man ignoriert total das Grunddilemma, dass KI erstens per Definition zu kompliziert ist, um sie als Mensch nachzuvollziehen und wir sie für genau diesen Zweck und genau so erschaffen haben. Aber vor allem ist die Bestimmung ethischer Standards ein menschliches und gesellschaftliches Thema. Was ethisch OK ist oder nicht, kann nur im Austausch mit den von der KI betroffenen erarbeitet werden und solche Diskussionen erfordern Kommunikationsprozesse und soziale Kompetenz. Da versteht man jeden Tech-CEO, der lieber nach einer technischen Lösung oder einem Prüfsiegel sucht.

Warum man so gerne von der KI spricht
Für die Inszenierung dieser Scheindebatte ist die Begrifflichkeit auch sehr hilfreich. Als ich 2010 noch an der RWTH Aachen geforscht habe, fing man gerade davon an über KI zu sprechen. Bis dahin sprach man nur von Big Data Analysis. Für mich persönlich zeigt sich im Wechsel von Big Data Analysis zu KI auch sprachlich die Flucht vor der Verantwortung der Ingenieure oder Entwickler. Es macht einen Unterschied, ob ich selbst als handelndes Subjekt Daten analysiere, um Entscheidungen zu treffen, oder ob ich eine KI dabei begleite, wie sie Entscheidungen trifft. Im ersten Fall ist man selbst der Bösewicht, im zweiten Fall rettet man die Welt vor dem künstlich intelligenten Bösewicht - wer möchte da lieber nicht als Held angesehen werden?

Langer Rede kurzer Sinn:
Wenn die Tech-Industrie ehrlich Angst vor der Superintelligenz hat, sollen die den Quatsch doch einfach lassen.

3 „Gefällt mir“