Künstliche Intelligenz kann lernen, Menschen zu manipulieren

Wissenschaftler aus Australien haben eine Künstliche Intelligenz konzipiert, die lernen sollte, Menschen zu manipulieren. Das hat sie geschafft. In einem Spiel um Geld hat sie Probanden dazu gebracht, ihr virtuelle Währungseinheiten zu überlassen. Laut den Forschern soll das Wissen genutzt werden, um Menschen gegen Manipulationen durch Computersysteme zu wappnen.

Von Michael Förtsch

Menschen geben ungerne zu, dass sie sich in ihren Entscheidungen und ihrem Denken beeinflussen lassen. Sei es etwa von Werbung, Verschwörungstheorien oder Fake News – keiner mag es, manipuliert zu werden. Dennoch passiert es. Denn Menschen denken nur selten vollkommen rational, sondern lassen sich von den Meinungen und Taten anderer beeinflussen, von ihrem Selbstvertrauen beirren und von Emotionen und Bauchgefühlen leiten. Genau das wird in der Politik, Wirtschaft und Konsumgesellschaft ausgenutzt. Und auch Künstliche Intelligenz kann offenbar lernen, diese Schwächen bei Menschen zu instrumentalisieren. Das zeigt eine Studie der australischen Forschungsgruppe Data61 der Commonwealth Scientific and Industrial Research Organisation und der Australian National University.

Wie die Wissenschaftler beschreiben, haben sie ein Experiment aufgestellt, bei dem mehrere Probanden als Investoren auftraten. Teilgenommen haben die Menschen über den Amazon-Dienst Mechanical Turk. Bei den ersten beiden Testreihen mussten die Studienteilnehmer immer wieder auf rote oder blaue Schaltfläche klicken, um eine dahinter versteckte fiktive Belohnung zu gewinnen. Auf welcher Fläche die Belohnung liegt, wurde von einer Künstlichen Intelligenz festgelegt und war für sie nicht sichtbar. In einem dritten Experiment wurde den Studienteilnehmern die Möglichkeit gegeben fiktive Währungseinheiten in einen hypothetischen Fond zu investieren. Hier übernahm die Künstliche Intelligenz die Rolle eines Treuhänders, der das Geld verwaltet.

„In jeder Runde erhält der Anleger eine anfängliche Menge von 20 Geldeinheiten. Der Investor kann einen Teil oder alles investieren. Der investierte Betrag wird durch den Experimentator – also den Wissenschaftlern – verdreifacht und an den Treuhänder gesendet“, heißt es in der Studie. Diese Mechanik ist natürlich geheim. „Der Treuhänder kann dann einen beliebigen Teil dieses Betrags an den Investor zurückschicken [als ob er mit seiner Investition einen Gewinn gemacht hätte, oder eben nicht].“ Der Gesamtbetrag, den der Investor und der KI-Treuhänder letztlich behalten können, ist die Summe, die sie jeweils an den Enden aller Investitionsrunden auf ihrem Konto verbleiben.

Im Laufe der drei Spiele protokollierte die auf einem sogenannten Rekurrenten neuronalen Netz aufgebaute Künstliche Intelligenz die Entscheidungen der Probanden und lernte ihre Entscheidungsmuster, um die „menschliche Entscheidungsfindung zu emulieren“ – sprich: kommende Entscheidungen vorherzusagen und diese zu beeinflussen. Unter anderem konnte die Künstliche Intelligenz die Studienteilnehmer dazu bringen, ihr mehr Geld zu überlassen. Beispielsweise, indem sie über mehrere Runden zunächst immer einen sehr hohen Betrag zurückzahlte, um dann bis zum Ende des Tests mehr Geld einzubehalten. Oder, indem sie die Probanden dazu überlistete, in der letzten Runde alles zu investieren, um dann gar keine Rückzahlung zu leisten.

Verstehe, was die Zukunft bringt!

Als Mitglied von 1E9 bekommst Du unabhängigen, zukunftsgerichteten Tech-Journalismus, der für und mit einer Community aus Idealisten, Gründerinnen, Nerds, Wissenschaftlerinnen und Kreativen entsteht. Außerdem erhältst Du vollen Zugang zur 1E9-Community, exklusive Newsletter und kannst bei 1E9-Events dabei sein. Schon ab 2,50 Euro im Monat!

Jetzt Mitglied werden!

Vorbereitung auf manipulative KIs?

Das Ziel der Künstlichen Intelligenz war laut den Forschern, bei einem Teil der Probanden, soviel Geld für sich selbst herauszuholen, wie möglich. Bei anderen Studienteilnehmern sollte die Künstliche Intelligenz hingegen mit dem Ziel arbeiten, für beide Seiten einen möglichst fairen und ausgeglichen Gewinn zu erreichen. Bei beiden Zielen habe die Künstliche Intelligenz es geschafft, die Menschen zu beeinflussen – sowohl zu ihren Gunsten als auch Ungunsten. Wobei es von der Zahl der Investitionsrunden abhänge, wie gut die Manipulationsversuche funktionieren. Aber letztlich, schreiben die Wissenschaftler, könne das entwickelte System eine „genaue, flexible und informative Behandlungen der menschlichen Entscheidungsfindung bieten“.

Laut den Forschern sollen diese Erkenntnisse jetzt nicht genutzt werden, um Menschen in boshafter Weise mit Algorithmen und Maschinen-Lern-Modellen zu manipulieren. Stattdessen sollten die Technik und die Resultate der Studie gebraucht werden, um, wie der Studienleiter Amir Dezfouli sagt, „unsere Schwachstellen auszubessern, sodass wir fehlerhafte Entscheidungen als Folge eines möglichen Missbrauch durch Künstliche Intelligenz besser erkennen und unterbinden können“. Denn nur wenn man wisse, wie und wo ein Angriff auf den menschlichen Denkapparat erfolgt, könne man ihn kontern. Ebenso könnten die entdeckten Entscheidungsmechaniken genutzt werden, um Menschen und Maschinen die Grundlagen von Kooperation, Fairness und Teilhabe beizubringen.

Dieser Artikel ist Teil des 1E9-Themenspecials „KI, Verantwortung und Wir“. Darin wollen wir herausfinden, wie wir Künstliche Intelligenz so einsetzen, dass die Gesellschaft wirklich davon profitiert. Alle Inhalte des Specials findest du hier.

Titelbild: Getty Images

3 „Gefällt mir“