Gehirn-Computer-Schnittstellen könnten Wunder vollbringen: Menschen mit Handicaps sollen durch sie wieder gehen, sehen oder sprechen. Doch die Technologie wirft ethische Fragen auf: Ist es vertretbar, sie an Tieren zu testen? Wie viel Hype ist okay? Und was ist mit den Rückkanalrisiken der Hirnimplantate oder gar kollektiver Gedankenmanipulation? Unsere Kolumnistin Aleksandra Sowa, alias @kryptomania, hat darüber mit dem Medienwissenschaftler Tobias Keber gesprochen.
Ein Interview von Aleksandra Sowa
Prof. Dr. Tobias Keber lehrt an der Hochschule der Medien in Stuttgart. Dort hat der Jurist das Institut für Digitale Ethik (IDE) mitgegründet, wo seit 2014 interdisziplinär Herausforderungen der Digitalisierung an den Schnittstellen zwischen Recht und Ethik erforscht werden. Vergangene Forschungsprojekte betrafen beispielsweise das hochautomatisierte Fahren, „smarte“ Kochumgebungen oder die Entwicklung eines Softwaretools zur Selbsteinschätzung der ethischen, rechtlichen und sozialen Auswirkungen von Forschungsvorhaben im Bereich der Mensch-Technik-Interaktion (MTI). Sein Lieblings-Science-Fiction-Film in letzter Zeit: Ex Machina (2015).
Aleksandra Sowa: Hunde schauen zu den Menschen herauf, Katzen schauen auf die Menschen herab, heißt es. Ein Schwein sei aber immer auf gleicher Augenhöhe mit dem Menschen. George Orwell machte das Schwein namens Napoleon zum Anführer der unabhängigen Tiere-Republik in Farm der Tiere, und in Margaret Atwoods postpandemischer Dystopie Oryx und Crake jagen sogenannte Organschweine, ursprünglich von Menschen gezüchtet, dann befreit, unabhängig, smart, organisiert in Rudeln lebend die wenigen überlebenden Menschen. Nun hat auch der Marsreisen-Pionier und Unternehmer Elon Musk bekannt gegeben, dass seine Computer-Hirn-Schnittstellen (Brain-Computer-Interfaces, BCI) – genauer: die Implantate seiner Firma Neuralink – von Schweinen getestet werden. Der Name des BCI-Pionier-Schweins: Gertrude. Zusammen mit zwei weiteren Schweinen soll Gertrude das Hirnimplantat erproben. Liegt es nur an der anatomischen Ähnlichkeit mit den Menschen, dass ausgerechnet Schweine bei den Hirnimplantaten zu „Testpersonen“ wurden?
Tobias Keber: Vielleicht sind es tatsächlich nicht nur (bio-)technische bzw. anatomische Gründe, weshalb Musk für die öffentlichkeitswirksame Inszenierung seiner Produktvorstellung gerade Schweine nutzte. Möglicherweise lässt sich die Frage sogar weiter zuspitzen. Das Forschungsfeld rund um BCI ist ja nun keineswegs neu. Es reicht zurück bis in die 1970er Jahre. Auch größere Erfolge, etwa in Gestalt von durch Rhesusaffen gesteuerten Roboterarmen über Schnittstellen vermeldete man schon um die Jahrtausendwende. Warum für das „Neuroscience Theater“, wie kritische Stimmen die Neuralink-Präsentation genannt haben, also keine Affen oder – was ebenfalls eine in diesem Forschungsfeld durchaus „übliche“ Spezies wäre –, warum keine Ratten?
Vorbehalte gegenüber Tierversuche an Primaten (und ein von Musk gegebenenfalls wegen der niedlichen Äffchen befürchteter Shitstorm) erscheinen insoweit auf den ersten Blick zumindest nachvollziehbarer als solche an Ratten. Bei Ratten wiederum hätte die Öffentlichkeit vielleicht gesagt, auf Menschen sind die Ergebnisse bestimmt nicht übertragbar, das ist viel zu weit weg. Ein psychologisch im Sinne der Marketingstrategie ideales Verhältnis von „Wow – die Ergebnisse sind gegebenenfalls auf den Menschen übertragbar“ und „Oha, die Zukunft wird seltsam sein (so Musk selbst)“ fand man gegebenenfalls bei Schwein Gertrude.
Mir scheint die Frage, welche Tiere (wir) für bestimmte Tests (abseits rein wissenschaftspraktischer Erwägungen) einsetzen, tatsächlich sehr interessant. Während die Russen die Straßenhündin Laika ins All schossen, wählte die NASA in aller Regel Affen aus. In der chinesischen Raumfahrt kamen auch schon Schweine zum Einsatz, wenn auch nur in Form ihres Erbguts. Nicht trivial ist dabei auch der Umstand, dass manche Tiere (wie auch Gertrude) Namen erhalten, andere dagegen nicht. Keine Namen bspw. für die ebenfalls schon in großer Zahl raumfahrende Spezies der Fruchtfliegen und Frösche, wohl aber für Laika & Co. Die dafür verantwortliche Antropomorphisierung liegt übrigens auch Ihrer Frage zu Grunde: Gertrude ist nicht Testperson und sie testet BCI nicht. Sie wird getestet. Das ist ein großer Unterschied. Jedenfalls für das Schwein.
Aleksandra Sowa: Muss man bei der Durchführung von BCI-Tests an den Tieren keine ethischen und/oder datenschutzrechtlichen Bedenken haben? Und wenn man bei Schweinen testen darf – wie weit ist es noch zu der Möglichkeit, die Tests an einem (freiwilligen) Homo sapiens durchzuführen? Brauchen wir einen Datenschutz für Tiere?
Tobias Keber: Ja, es geht auch um Tierethik. Hier kann man zunächst einmal fragen, ob eine streng anthropozentrische Auffassung noch zeitgemäß ist, wo der Mensch das „Maß aller Dinge" ist. Ist sie nicht, wie auch der deutsche Ethikrat in seiner Stellungnahme „Tierwohlachtung – Zum verantwortlichen Umgang mit Nutztieren“ jüngst festgestellt hat. Nimmt man eine pathozentrische(re) Position ein, ist die Leidensfähigkeit der Lebewesen das zentrale Kriterium für ihren Einbezug in ethische Überlegungen.
Damit ist die Nutzung eines Tieres (auch das Tier zu essen) nicht grundsätzlich unvereinbar. Im Tierschutz als (nur) teilweise verrechtlichter Tierethik geht es (nur) darum, dass den Tieren keine vermeidbaren Schmerzen und Leiden zugefügt werden und ihnen ein möglichst artgerechtes und „gutes“ Leben ermöglicht wird. Mit dem Kriterium der Leidensfähigkeit könnte man für unseren Ausgangsfall fragen, leidet ein Affe mehr als eine Ratte, beide mehr oder weniger als ein Schwein, wenn ihnen operativ eine Schnittstelle unter dem Schädel implantiert wird?
Was bedeutet freiwillig, wird man hier zurückfragen müssen.
Datenschutzrechtliche Bedenken müsste man haben, wenn es um personenbezogene Daten ginge, oder, je nachdem, was man als Schutzgut des Datenschutzrechts ausmacht, um den Schutz der Persönlichkeit oder der informationellen Selbstbestimmung. Allen Ansätzen ist gemein, dass sich nach gegenwärtigem Konzept nur Menschen darauf berufen können. Ob das richtig ist, kann man durchaus bestreiten, denn die Anerkennung eine Tierwürde (Würde der Kreatur), die auch als potentieller Ausgangspunkt eines „tierspezifischen Datenschutzrechts“ in Betracht käme, fordern viele Tierschützer.
Ob man das (im Ansatz) richtig findet, kann man übrigens für sich selbst testen, indem man sich das Video eines Schweins (es hatte soweit ersichtlich keinen Namen) ansieht, das für einen Sicherheitstest von einem Bungee-Turm gestürzt wurde. Das Schwein überlebte, hatte aber (wohl) Todesangst (?) und wurde für einen Test instrumentalisiert, der wohl auch mit einer Puppe durchführbar gewesen wäre.
Zurück zu Ihrer Frage und den Tests an Menschen. Was bedeutet freiwillig, wird man hier zurückfragen müssen. Handelt jemand freiwillig, der sich in der (begründeten?) Hoffnung, nach Jahren im Rollstuhl wieder laufen zu können, ein BCI-Implantat einsetzen lässt?
Aleksandra Sowa: Dr. Dr. Orsolya Friedrich vom Institut für Ethik, Geschichte und Theorie der Medizin der Ludwig-Maximilians-Universität München forscht zusammen mit spanischen und kanadischen Experten am vom BMBF geförderten Forschungsprojekt „Interfaces“. Dabei werden u. a. Menschen dazu befragt, wie sie sich künftige BCI-Technologien vorstellen und welche Haltung sie dazu haben. „In ethischer Hinsicht ist es für mich auch wichtig, in der Bevölkerung nicht zu schnell zu hohe Erwartungen an die Technologie zu wecken – etwa im Hinblick darauf, verlorene Körperfunktionen ganz leicht durch BCI-Nutzung ersetzen zu können“, sagte sie der Zeitschrift medizin & technik. Was darf man realistischerweise kurz- und mittelfristig von der Technik erwarten? Sind die ethischen Diskussionen – gemessen an den realistischen Erwartungen – übertrieben?
Tobias Keber: Ja und Nein. Das Schüren zu hoher Erwartungen mit Versprechen, die man auf absehbare Zeit nicht halten kann, finde ich ebenfalls schwierig. Das ist auch ein Grund für berechtigte Kritik an der Science-Show von Elon Musk. Übertrieben finde ich eine ethische Diskussion dabei grundsätzlich nie. Wichtig ist nur immer, welche Fragen wie prominent debattiert werden. So ist beispielsweise beim autonomen Fahren jedenfalls in der öffentlichen Wahrnehmung (und abseits der eigens eingesetzten Ethik-Kommission „Autonomes Fahren“) fast ausschließlich das Trolley Problem debattiert worden, dessen Praxisrelevanz (jedenfalls im Moment) überschaubar ist. Näherliegender Fragen, etwa ob die Technik für Alle und in jedem Kontext oder nur in bestimmten Bereichen zur Anwendung kommen soll, wurden vernachlässigt.
Aleksandra Sowa: Elon Musks Hirnimplantat von Neuralink soll bei der Behandlung von Schmerzen, Sehstörungen, Gehirnschäden oder bei Verletzungen des Rückenmarks einsetzbar sein; Menschen sollen dank der Technologie wieder laufen können. Aktuell überträgt das Implantat leidglich Signale an Computer, wenn Gertrude bspw. ihren Russel rümpft. Ausgedrückt mit den Worten des Investors Peter Thiel: Uns wurden Weltraumreisen versprochen – und wir bekamen 140 Zeichen. Wie weit oder wie nahe sind wir an Implantaten à la Cyborg und ihrer wohl bekanntesten Vertreterin aus Star Trek, Seven of Nine?
Tobias Keber: Science-Fiction prägt sicher auch die Haltung, die wir zu technischer Entwicklung haben. Wenn wir über Künstliche Intelligenz sprechen, ist unsere Vorstellung bisweilen „terminatorisiert“. Mit der Realität hat das dann wenig zu tun, denn von einer mit Skynet vergleichbaren starken KI ist man nach wohl einhelliger Auffassung in der Wissenschaft noch sehr weit. Auch insoweit wird die für näherliegende Fragen erforderliche Reflexionskapazität (in welchen Bereichen überwiegt der Nutzen bestimmter Anwendungsszenarien schwacher KI) bisweilen ohne Not beansprucht.
Aleksandra Sowa: Ein bekanntes, wenngleich in der fernen Zukunft liegendes Schreckensszenario für den Einsatz von Hirnimplantaten sowie Körperprothesen sind die Borg aus der Science-Fiction-Welt von Star Trek. Ein Kommunikationskanal, der zur Übertragung von Hirnimpulsen an den Computer dient, kann ebenso gut in umgekehrter Richtung eingesetzt werden. Er kann als eine Art „Kill Switch“ den Nutzer gefährden, ihm Schaden zufügen, ihn verletzen oder gar seinen Tod herbeiführen. Er kann eventuell auch, wie bei Borg, zum Instrument der individuellen oder kollektiven Manipulation werden. Wie kann man heute potenziellen Negativszenarien vorbeugen, ohne die positiven Entwicklungen der Technologie einzuschränken? Wäre ein Verbot von BCI-Technologien moralisch vertretbar, bedenkt man, dass sie es möglicherweise irgendwann ermöglichen könnten, dass gelähmte Menschen damit wieder normal laufen können.
Tobias Keber: Ausnahmslose Verbote lassen sich nur in sehr engen Grenzen begründen. Für den Einsatz von ABC-Waffen hat sich die Menschheit einen solchen essentiellen Grundkonsens gegeben. Für BCI-Technologien wird man das so nicht annehmen können, wenn sie im Einzelfall eine höchst gewinnbringende Verbesserung der Lebensumstände bringen. Wie groß das Missbrauchsrisiko tatsächlich ist, muss man dabei (nicht nur einmal, sondern laufend unter Berücksichtigung neuer Erkenntnisse) evaluieren.
Ausnahmslose Verbote lassen sich nur in sehr engen Grenzen begründen.
In einem anderen Beispiel ist das Ihrer Frage zu Grunde liegende Rückkanalproblem (Kommunikation ist in beide Richtungen möglich, was Eingriffe von außen ermöglicht) übrigens bereits Realität: Beim smarten Fernsehen haben wir heute einen Rückkanal, den man sich vor ein paar Jahren so noch nicht vorstellen konnte. Dieser ermöglicht es Dritten, unsere TV-Sehgewohnheiten auszuwerten. In einer Zeit, als der Fernseher noch nicht IP-basiert operierte, war es auch nicht denkbar, von außen Malware einzubringen und damit das Gerät sowie das gesamte heimisches Netzwerk zu kompromittieren.
Aleksandra Sowa: Der Mensch ist ein technisches Wesen durch und durch. Wie kann Technologie bei solchen komplexen Entscheidungen unterstützen, ohne dass man dabei gleich dem Solutionism verfällt?
Tobias Keber: Ich glaube, wir brauchen viel mehr von einer Haltung, wie sie Joseph Weizenbaum an den Tag gelegt hat. Im Ausgangspunkt grundsätzliche Begeisterung für Technik, aber stets kritisch und immer verbunden mit der am Anfang jeder Entwicklung stehenden Frage: Brauchen wir das? Zeit, über diese Frage nachzudenken, glauben wir angesichts des hohen Innovationsdrucks nicht mehr zu haben. Dabei nehmen wir den Zwang, technisch fortschreiten zu müssen als unumstößliche Naturgewalt wahr. Dieses Narrativ der Alternativlosigkeit ist meines Erachtens ein fataler Irrtum.
Aleksandra Sowa: Laut Alexandre Lacroix wurden in Silicon Valley Kopfhörer entwickelt, die vor geistiger Übermüdung bei der Arbeit schützen, indem sie mit leichten Stromschlägen das Gehirn stimulieren. Sie wurden nur nicht zur Nutzung zugelassen. Entsprechende Armbänder gibt es bereits seit mehreren Jahren: Mit – nicht lebensgefährlichen – Stromschlägen bis zu maximal 350 Volt kann sich der Besitzer des Pavlok-Armbands für „schlechtes“ Verhalten bestrafen. So kann man sich das Rauchen von Zigaretten abgewöhnen, ungesundes Essen oder das Fingernägelkauen abstellen, werben die Konstrukteure der Behavioral Technology Group.
Noch mehr ist mithilfe einer speziell dafür konzipierten App möglich. Dort können weitere korrigierbare Verhaltensmuster definiert werden, bspw. die Angewöhnung rechtzeitigen Aufstehens oder das Fernbleiben von zeitraubenden Webseiten. Der Erfolg – die erwünschte Veränderung des Verhaltens – tritt nach Angaben des Herstellers in den meisten Fällen in weniger als fünf Tagen ein. Es sind zwar noch keine (Gehirn-)Prothesen und der Nutzer kann sie bei Bedarf abnehmen und auf ihre Nutzung verzichten. Doch stellt sich bereits bei diesen Vorläufertechnologien die Frage, inwieweit der Mensch das Ergebnis der Handlung der Apparatur kontrollieren kann. Ist er für ihre Handlung – ob nun einen durch Fehler im Pavlok-Armband verursachten tödlichen Stromschlag oder Missinterpretation seiner Gedanken durch die Gehirn-Computer-Schnittstelle – verantwortlich und/oder haftbar?
Tobias Keber: Für die ethische Reflexion und am Ende des Tages auch für die Haftung relevant ist unter anderem die Frage, wie invasiv und /oder reversibel die Maschinenteile mit dem Körper verbunden werden und was sie dort genau tun. Angesichts des damit potentiell verbundenen Risikos können die Schnittstellen Medizinprodukte darstellen, die nur unter bestimmten Voraussetzungen zugelassen werden. Vom Ansatz her etwas laxer kann man gegebenenfalls mit Gadgets umgehen, die nicht implantiert und jederzeit abgenommen oder ausgeschaltet werden können.
Auch dort sind allerdings Fehlfunktionen denkbar, die das gegenwärtige Rechtssystem entweder verschuldensabhängig – kannte oder hätte der Verantwortliche die Fehlfunktion kennen müssen – oder über die Produkthaftung als verschuldensunabhängige Gefährdungshaftung adressiert. Das klingt nach einem System, das bspw. auch im Falle von Fehlern eines KI-Systems Betroffene ausreichend schützt. Dem ist aber nicht zwingend so, was nicht zuletzt an Beweisschwierigkeiten liegt. Überlegt werden vor diesem Hintergrund neue Konzepte, die auch die Haftung künstlicher Entitäten erfassen.
Werde jetzt Mitglied von 1E9!
Als Mitglied unterstützt Du unabhängigen, zukunftsgerichteten Tech-Journalismus, der für und mit einer Community aus Idealisten, Gründerinnen, Nerds, Wissenschaftlerinnen und Kreativen entsteht. Außerdem erhältst Du vollen Zugang zur 1E9-Community, exklusive Newsletter und kannst bei 1E9-Events dabei sein. Schon ab 3 Euro (+ MwSt) im Monat!
Jetzt Mitglied werden!Aleksandra Sowa: Die Geschäftsmodelle der Unternehmen aus dem Silicon Valley basieren oft auf dem Prinzip „Try out and excuse later“, nehmen bewusst Verletzungen der Verbote, Grundrechte oder bestimmter Gesetze in Kauf, um ihre Produkte durchzusetzen. Gleichzeitig beobachtet man eine sinkende Bedeutung des Staates und seiner traditionellen Kontrollinstrumente. Welche Bedeutung sollte man angesichts dieser Entwicklungen noch den ethischen Prinzipien bzw. der Diskussion dieser beimessen?
Das Beispiel des Gesetzes zum autonomen Fahren zeigt: Der Bericht der Ethikkommission lag erst vor, nachdem der Beschluss des Gesetzes durch den Bundestag erfolgte. Die Vermutung liegt nahe, dass die Politik die Empfehlungen der Kommission bei ihren Entscheidungen gar nicht erst berücksichtigte/berücksichtigen konnte. Brauchen wir eventuell ethische Prothesen oder bei nicht-ethischem Verhalten mit Stromschlägen Politiker und Manager traktierende Armbänder eher als selbstfahrende Autos, Hirn-Computer-Schnittstellen oder kommunizierende Kühlschränke, um sicherzustellen, dass diese Technologien tatsächlich den Menschen dienen? Der Zweck des Fortschritts sollte immer der Mensch sein.
Tobias Keber: Dem kann ich nur beipflichten. Beim Risikomanagement streiten das Vorsorge- (bei vermutet hohem Risiko für wichtige Rechtsgüter ggfls. Verbot mit Erlaubnisvorbehalt) und das Nachsorgeprinzip (excuse later) und in der Tat ist die Frage, welches Prinzip als Default-Wert zu setzen ist. Das ist bereichsspezifisch und auch im internationalen Vergleich sehr unterschiedlich. Das Problem dabei sind Erkenntnisdefizite, wie wir sie auch jetzt in der Corona-Krise sehen. Wie geht man mit Nichtwissen um und was ist die Folge, wenn man ex post betrachtet falsch entschieden hat? Mit der automatisierten Gesichtserkennung ist innerhalb der EU gerade eine Technik besonders umstritten und es geht um die Frage, ob präventiv verboten werden soll.
Aleksandra Sowa: Künstliche Hüften, Augen, Herzschrittmacher und Hörimplantate – sind wir eigentlich nicht alle schon ein wenig Cyborg? Bei wie viel Prozent Mensch gelten für uns noch die Zehn Gebote?
Tobias Keber: Das ist ganz klar: Bei 51 Prozent Maschine gelten (nur noch) Regeln, die Maschinen betreffen (vielleicht Asimovs Robotergesetze). Spaß beiseite. Obwohl: Mit derart naiven Ansätzen wird zum Teil der Frage nachgegangen, ob sich hinter einem Twitter-Account ein Mensch aus Fleisch und Blut oder eine Maschine („Social-Bot“) verbirgt.
Einen Steinzeitmenschen hätte das Aufsetzen einer Brille zum Cyborg gemacht.
Tatsächlich ist es aber wenig zielführend, einen Geisteswissenschaftler nach einer ein für alle Mal gültigen und exakten Maßzahl zu fragen. Die kann es im zwischenmenschlichen und wohl auch im Verhältnis zwischen Mensch und Maschine nicht geben. Einen Steinzeitmenschen hätte das Aufsetzen einer Brille zum Cyborg gemacht, der Brillenträger von heute wird das wahrscheinlich nicht mehr so sehen. Transhumanisten würden Ihre Frage möglicherweise dahingehend beantworten, dass es zum Menschsein gehört, die eigene Existenz durch Technik besser zu machen, es also eine ethische Verpflichtung zum Fortschritt gibt. Dass eine auf dieser Basis entworfene Welt kein Paradies sein muss, lesen wir in William Gibsons Neuromancer-Trilogie. Die meisten Menschen in der Sci-Fi Novelle sind mit Microchips ausgerüstet, die sie in bestimmten Bereichen besser machen und die sie jederzeit austauschen können. Lebenswerter erscheint die in den Romanen beschriebene dystopische Welt von Chiba City dabei allerdings nicht.
Aleksandra Sowa: „Organic minds are such fragile things“, kritisierte die Borg-Königin in Star Trek: First Contact. Solange wir uns der Risiken bewusst sind, gibt es noch Hoffnung, dass es uns gelingt uns zu verbessern und Hirnimplantate einzusetzen, ohne uns gleich zu ersetzen – bzw. in ein willenloses Kollektiv à la Borg zu verwandeln. Ein paar Gigabyte-Extraspeicher für das Gehirn wären jedenfalls ganz nett. Lieber Herr Prof. Keber, vielen Dank für das Gespräch!
Dr. Aleksandra Sowa gründete und leitete zusammen mit dem deutschen Kryptologen Hans Dobbertin das Horst Görtz Institut für Sicherheit in der Informationstechnik. Sie ist zertifizierter Datenschutzauditor und IT-Compliance-Manager. Aleksandra ist Autorin diverser Bücher und Fachpublikationen 9. Sie war Mitglied des legendären Virtuellen Ortsvereins (VOV) der SPD, ist Mitglied der Grundwertekommission, trat als Sachverständige für IT-Sicherheit im Innenausschuss des Bundestages auf, war u.a. für den Vorstand Datenschutz, Recht und Compliance (DRC) der Deutsche Telekom AG tätig und ist aktuell für eine Wirtschaftsprüfungsgesellschaft als Senior Manager und Prokurist aktiv. Außerdem kennt sie sich bestens mit Science Fiction aus und ist bei Twitter als @Kryptomania84 unterwegs.
Alle Folgen der Kryptomania-Kolumne findet ihr hier.
Titelcollage: 1E9 (mit Material von Collage Royal Society und Fi Jones auf Unsplash)