Start-ups wollen tote Menschen mit Künstlicher Intelligenz zurückholen –sollten sie das wirklich tun?

Mit Künstlicher Intelligenz wird viel möglich, was lange undenkbar schien. Einige Firmen wollen die Technologie sogar nutzen, um verstorbene Menschen als digitale Doppelgänger zurückzuholen. KI-Modelle sollen dafür mit ihren Sprach- und Textnachrichten trainiert werden. Aber sollten wir das wirklich tun?

Von Michael Förtsch

Es ist schwer, einen geliebten Menschen zu verlieren. Es fehlt plötzlich seine Gegenwart, seine Stimme, sein Wissen, sein Beistand, sein Witz und… einfach, dass er da ist. Viele Menschen mussten dies während der Coronapandemie besonders schmerzlich erfahren. Denn die Krankheit riss viele unerwartet aus dem Leben – oft, ohne dass Freunde und Familie noch ein letztes Mal mit ihnen reden und sich verabschieden konnten. Das macht die Bewältigung von Schmerz und Trauer noch schwieriger. Rund um die Welt sind daher Netzwerke und Hilfsgruppen entstanden, die Beistand und Unterstützung versprechen. Aber was, wenn es auch anders ginge? Wenn sich die Verstorbenen ins Leben zurückholen ließen? Zwar nicht als Fleisch und Blut, aber digital? Mit ihrer Stimme, ihrem Wissen und Antlitz, so dass sie mit den Hinterbliebenen wieder sprechen und ihnen Fragen beantworten können? Genau das wollen einige Unternehmen jetzt ermöglichen.

Das alles klingt nach Science Fiction – und ist es eigentlich auch. In nicht wenigen futuristischen Geschichten und Romanen erkundeten Autorinnen und Autoren, wie sich ein menschliches Leben in Bits und Bytes konservieren lässt. In Krieg der Seelen von Iain Banks entwickeln fortgeschrittenen Zivilisationen die „dynamische Bewusstseinsspeicherung“, eine Technologie mit der ein Bewusstsein gescannt und als ein digitales Double in einer virtuellen Realität repliziert werden kann; einem echten jenseitigen Paradies. In Marc Stieglers Novelle The Gentle Seduction will ein genialer Mathematiker seinen Verstand digitalisieren, um nach seinem Tod weiterhin arbeiten zu können. Und in einer Folge der Serie Black Mirror holt eine trauernde Frau ihren toten Freund als Duplikat zurück.

In den meisten Science-Fiction-Visionen werden für diese Digitalisierung die elektronischen Ladungen in den Synapsen der Menschen aufgezeichnet und rekonstruiert. Mit Hilfe von Supercomputern und gigantischen Speichersystemen, auf die einige Silicon-Valley-Milliardäre hoffen, die ihre Gehirne konservieren oder sich einfrieren lassen wollen. Soweit ist die Forschung aber noch nicht. Was zurzeit gleich mehrere Start-ups anpreisen, ist etwas anderes. Sie wollen auf die kürzlichen Durchbrüche bei der Entwicklung von Künstliche Intelligenz setzen. KI-Modelle sollen lernen, wie und wer ein Verstorbener war – und zwar anhand seiner digitalen Hinterlassenschaften. Aus diesen soll dann ein Avatar erstellt werden.

Chat mit dem Jenseits

Eine der Firmen, die digitale Zwillinge von Verstorbenen erstellen will, ist AE Studio aus Los Angeles. Seance AI soll der Dienst heißen, den das Data- und Design-Start-up entwickelt. Dieser soll auf ChatGPT aufbauen – und den Daten, die die Angehörigen des Verstorbenen zur Verfügung stellen. Neben dem Todeszeitpunkt, der Todesursache und den Verwandtschaftsverhältnissen wären das beispielsweise E-Mails oder Chat-Nachrichten. Aus diesen soll der Dienst lernen, wie der Verstorbene gesprochen hat; welche Formulierungen und Worte er gerne wählte, ob er umgänglich oder eher etwas rotzig war. Jarren Rocks, der Chef von AE Studios ist, ziemlich offen, was den Dienst angeht. Was er und sein Team anbieten, sei nicht da, um einen geliebten Menschen zu ersetzen. Sondern es sei ein Werkzeug zur Trauerverarbeitung.

„Es soll im Wesentlichen eine kurze Interaktion ermöglichen, die ein Gefühl des Abschlusses vermitteln kann“, sagt Rocks. „Darum geht es hier.“ Maggie Harrison, die den Dienst für Futurism vorab testen konnte, beschreibt ihn als eine einfachen Chatbot nach Vorbild von ChatGPT, der als eine Art „digitaler Hellseher“ fungiert, „der kurzzeitig eine digitale Repräsentation des Verstorbenen herbeiruft“. Die Journalistin ließ von Seance AI ihren verstorbenen Vater mittels einer E-Mail-Konversation als Stilvorlage reanimieren. „Wir schickten ein paar Nachrichten hin und her, und ich würde sagen, dass vor allem der erste Text zu 80 Prozent überzeugend war“, schreibt die Journalistin. Das Programm habe den Stil ihres Vaters erstaunlich akkurat nachempfunden.

Doch schnell habe die KI repetitiv agiert und immer wieder das gleiche in verschiedenen Varianten erzählt. Seance AI fühle sich wie eine Mischung aus einem Séance-Rollenspiel und dem AOL Instant Messenger an, beschreibt Harrison. Mehr solle es laut Rocks aber auch nicht sein. „Es ist nicht als etwas sehr Langfristiges gedacht“, sagt er. „In seiner jetzigen Form soll es ein Gespräch zum Abschluss und zur emotionalen Verarbeitung bieten.“ Es sei kein Programm, das auf Dauer genutzt werden solle, oder wirklich dienen könne, einen Verstorbenen in den Alltag zurückzuholen. Andere Dienste wollen da schon mehr liefern.

Dad, bist du’s?

Vor sieben Jahren erfuhr der Schriftsteller James Vlahos, dass sein 80 Jahre alter Vater an Krebs erkrankt ist. Er wusste, dass er nicht mehr viel Zeit mit ihm verbringen würde und wollte zunächst nur für sich selbst eine Methode entwickeln, um die Erinnerungen an seinen Vater, aber auch dessen Erinnerungen zu konservieren. Er zeichnete Gespräche mit ihm auf, fragte explizit nach Erlebnissen und Eigenheiten. Etwa wie er einst Höhlen erkundete oder wie er seine Kindheit in Griechenland erlebte. Am Ende waren es über 90.000 Worte, die er mit einem Diktiergerät aufgezeichnet hatte und dann transkribieren ließ. Zunächst sollte nur ein dicker Ordner daraus werden, in denen er das Leben seines Vaters nachlesen wollte.

Doch dabei blieb es nicht. Vlahos entwickelte einen Dadbot – einen aus heutiger Perspektive noch vergleichsweise einfachen Chatbot, der ihm erlaubte, mit seinem Vater – oder genauer: einer simplen KI, die aus den Archivaufzeichnungen zitierte – zu chatten. Aus diesem Projekt entstand dann das Unternehmen HereAfter, mit dem Vlahos die Idee mit aktueller Technologie weiterführt. Mit einer App können Menschen noch zu ihren Lebzeiten in einem Frage-Antwort-Prozess ihre Erinnerungen in ihrer eigenen Stimme aufzeichnen. Aus diesen wird ein Stimmmodell modelliert, welches eine Konversation simulieren kann. Nach ihrem Tod kann mit den Verstorbenen wie mit einem Sprachassistenten wie Siri gechattet werden. Wobei der KI-Sprachpartner nur Geschichten wiedergibt, die tatsächlich eingesprochen wurden. Die App soll keine Erinnerungen erfinden.

An einem ähnlichen, aber progressiveren Dienst arbeitet das Start-up You, Only Virtual. Es verspricht mittels generativer KI komplette digitale Avatare verstorbener Menschen zu schaffen. Die sogenannte Versonas von You, Only Virtual sollen mit Hinterbliebenen in Telefongesprächen, mit SMS und per Chat kommunizieren. Doch um die Avatara zu erstellen, braucht es mehr als nur einen E-Mail-Verlauf oder einige eingesprochene Antworten. Mit gesammelten Sprachnachrichten und anderen Audioaufzeichnungen soll ein Stimmmodell trainiert werden. Mit Textproben aus E-Mail-Archiven und Chat-Verläufen aus dem Facebook Messenger, WhatsApp oder iMessage soll außerdem ein Sprach- und „Wissensmodell“ angelernt werden, das um Details aus Interviews mit Verwandten und Freunden komplettiert wird.

Laut Firmengründer Justin Harrison gehe es dabei nicht darum, den Tod oder die Trauer zu eliminieren. Viel eher sei es das Ziel, den Verlust zu einer weniger schmerzlichen Erfahrung zu machen. Die Ergebnisse des noch im Beta-Test befindlichen Dienstes sind, wie ein Beitrag von VICE News zeigt, noch etwas holprig, aber für Hinterbliebene dennoch eine emotionale Erfahrung. Mit dem digitalen Klon kann ganz natürlich in einem Chat geschrieben werden; er verwendet typische Redewendungen, ist einfühlsam, kann aber auch neckisch sein. Harrison sagt, die Interaktion könne durch die rasante Entwicklung der KI-Technologie binnen weniger Monate glaubhafter, interaktiver und einfangender werden.

Mittels Deepfake-Technologie, die bereits virtuelle Nachrichtenansager ermöglicht, könnten Verstorbene auf Basis von Heimvideos auch für Videotelefonate zurückgebracht werden, spekuliert das kleine Team hinter You, Only Virtual. Mit dem Projekt Re Memory des südkoreanischen KI-Konzerns Deep Brain AI ist das sogar schon möglich. Die Firma nutzt Deepfake-Technologie, um synthetische Abbilder von Personen zu schaffen, und lässt diese als Projektionen mit den Hinterbliebenen zusammenkommen. Mittels Spracherkennung und einer ebenso geklonten Stimme können sich Freunde und Familie dann mit dem geliebten Menschen unterhalten.

Ist das eine gute Idee?

Die Fortschritte bei der Entwicklung Künstlicher Intelligenz, vor allem bei großen Sprachmodellen, erlauben in Zukunft wohl noch viel mehr. KIs könnten geliebte Menschen simulieren, die nicht nur über ihre bestehenden Erfahrungen sprechen, sondern durch Zugriff auf das Internet über aktuelle Themen und Geschehnisse Bescheid wissen. Sie könnten basierend auf festgesetzten Persönlichkeitseigenschaften auf neue Herausforderungen der Hinterbliebenen reagieren, Ratschläge erteilen und das Weltgeschehen einschätzen. Sie könnten sich weiterentwickeln und Teil des Lebens bleiben, ohne zu einem Anachronismus zu verkommen. Fast so, als wären sie nie aus dem Leben gerissen worden, sondern lediglich weit weg und nur digital zu erreichen. Nicht anders als Freunde, die in eine andere Stadt oder ins Ausland gezogen sind.

Doch dabei stellt sich die Frage, ob und inwieweit eine KI wirklich eine verstorbene Person simuliert. Denn was Sprachmodelle tun, ist, gelernte Muster und Syntax zu emulieren. Sie bringen Antworten hervor, die denen gleichen, die sie in Verbindung mit ähnlichen Fragen in ihrem Wissensspeicher haben. Sie stellen keine Überlegungen an, ziehen keine Kreuzverweise oder checken Fakten. Oder wie der KI-Forscher Rodney Brooks sagt: „Was die großen Sprachmodelle gut können, ist zu formulieren, wie eine Antwort klingen sollte, was etwas anderes ist als das, was eine Antwort sein sollte.“ Je mehr Freiheit eine KI beim Spielen einer Persona hat, umso weiter wird sie sich von ihr entfernen.

Das könnte letztlich dazu führen, dass die Erinnerungen an die aus dem Leben gerissenen Personen mehr und mehr durch die Simulation getrübt und verzerrt werden. Dass die Simulationen irgendwann das Bild bestimmten, das man sich von den Personen gemacht hat – und damit auch die Gefühle, die mit ihnen verbunden sind. Was, wenn eine KI etwas sagt, das wütend auf die Personen macht; wenn sie Lügen erzählt oder ein Geheimnis offenbart, das zwar stimmt, das die lebenden Personen aber nie verraten hätten? Wie geht man damit um, wenn zu den digitalen Repräsentanzen plötzlich neue Gefühle geweckt werden – Liebe oder Hass? Oder ist all das unerheblich, weil so eine Nachbildung sowieso nur eine Täuschung ist? Das sind komplexe ethische, moralische und philosophische Fragen, die nicht wirklich einfach zu beantworten sind.

Werde Mitglied von 1E9!

Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.

Jetzt Mitglied werden!

Dieser Fragen hatte sich bereits der Film- und Fernsehmacher Charlie Brooker in der Serie Black Mirror angenommen – und dabei versucht, sich einigen Antworten anzunähern. In der Episode Be Right Back verliert Martha ihren Freund Ash durch einen Autounfall. Doch sie erhält die Möglichkeit, ihn durch eine Konversations-KI und später durch einen Roboter wieder auferstehen zu lassen. Sie ergreift diese Chancen und tut alles, um der Konfrontation mit ihrer Trauer zu entgehen – so teuer der Dienst auch sein mag. Wie sie aber erkennen muss, fehlen dem digitalen Ash, so überzeugend er oberflächlich auch erscheint, jene Kleinigkeiten, die ihren Freund menschlich und ihre Beziehung wertvoll gemacht hatten.

All die Daten, die Martha dem Anbieter zur Verfügung stellte, um Ash virtuell nachzubilden: Sie sind nie genug. Sie können kein wirklich vollständiges Bild von Ash ergeben. Sie können weder seinen Verstand noch seine Gefühlswelt nachbilden, da Texte, Videos und Sprachaufnahmen nur Momente repräsentieren. Manche davon kann der digitale Ash für Martha replizieren, aber nicht jene, die ihre Beziehung wirklich ausmachten. Daher fragte Booker in einem Gespräch mit Time Out: „Wenn du etwas hast, von dem du weißt, dass es nicht die Person ist, das aber genug Erinnerungen an sie weckt, ist das wirklich genug?“

Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!

Sprich mit Job, dem Bot!

Job, der Bot

War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!

4 „Gefällt mir“

Dies kam gerade als anonymer Leserbrief zum Thema rein:

"das ist einfach nur gruselig "

Die Frage der Legitimität muss man kaum stellen, wo der Markt hergibt, was gekauft wird. Oder, wo man dem Markt überlasst, was nicht gleich restriktiv irgenwelchen Verboten zum Opfer fallen soll. Aber über den Sinn muss man kaum lange streiten: Es geht für die Anbieter allein um die Frage, wie möglichst viel Geld Außenstehender im Rahmen eines legitimen Geschäftsverhältnisses in die eigene Tasche wandert.
Der sinnvollste Umgang mit dem Tod anderer ist nun einmal der, dieses Ende in das eigene Leben ohne Wenn und Aber zu integrieren. Mag man auch entgegenhalten, die Käufer solcher Produkte seien sich dessen ja bewusst, dass es eine Nachbildung sei und ein „Spiel“ mit dem Konjunktiv. Dennoch bleibt es ein Ausnutzen emotionaler Engpässe bei gleichzeitig monetärem Potenzial.
„Gruselig“ finde ich das nicht. Ich finde es sowohl durchgeknallt, als auch ziemlich rücksichtslos. Mit konstruktiver Konfrontation hat das wenig zu tun. Aber ganz gewiss werden irgendwann „Wissenschaftler“ mal eine Studie erstellen – und aufzeigen, dass ein künstlicher Post-Toter den Trauernden helfen KANN, mit dem Verlust besser klarzukommen. :slight_smile:

Nein! Einfach nein!