Neuralink soll „drahtlos“ das Gehirn anzapfen

Seit drei Jahren gibt es das von Elon Musk mit angestoßene Start-up Neuralink. Das Ziel? Eine Umsetzung des “neural lace”, einem Apparat, der der Science-Fiction-Saga Kultur-Zyklus von Ian Banks entstammt; ein Computer-Hirn-Interface, das den Verstand des Trägers komplett aufnehmen kann und ebenso drahtlosen Zugang zu Datenbanken und Künstlichen Intelligenzen gewährt, die Raumschiffe, Raumstationen und teils ganze Planeten steuern.

Wie Musk jetzt auf einer Präsentation offenbart hat, ist dem Team zumindest ein kleiner Schritt dahin gelungen. Sie konnten in das Gehirn einer Ratte 1500 einzelne Elektroden-Kabel einsetzen. Zuständig dafür ist ein Roboter, der die feinen Kabel verankert – und, zumindest in seiner finalen Fassung von selbst darauf achtet, keine Blutgefäße oder sensiblen Areale zu verletzen.

Später soll die Prozedur an Menschen umgesetzt werden, denen zusätzlich drei bis vier je acht Millimeter großen Sensoren in das Gehirn verpflanzt werden, die mit den Kabeln verbunden sind und zu einem wenige Zentimeter großen Transmitter-Implantat reichen. Das wiederum soll sich drahtlos mit einem Mini-Computer verkoppeln, dem Link, der gleich einem Sport-Headset über dem Ohr getragen wird. Das Link wiederum soll sich zu Anfang mit dem Smartphone verknüpfen und eben dieses so per Gedankenkraft steuern lassen.

Später, das ist die Hoffnung, könnten sich Nutzer gleich einem App-Store neue „Fähigkeiten“ für ihr Neuralink herunterladen, die beispielsweise Roboter lenken oder direkten Zugriff auf Wissensdatenbanken erlauben.

Bereits im nächsten Jahr sollen erste Tests an Menschen durchgeführt werden.

Klar, ganz neu ist, was Neuralink tut nicht. Die Forschungsinitiative BrainGate Research hat bereits im vergangenen Jahr eine Methode erprobt, um körperlich beeinträchtige Menschen mittels dem BrainGate2-Neural-Interface auf handelsübliche Android-Tablets zugreifen und sie steuern zu lassen. Allerdings mussten sich die Probanden hierbei einen dicken Anschluss in die Schädeldecke schrauben lassen, der mit einem großen Stecker angezapft wird.

Elon Musk verspricht hingegen eine weniger invasive Methode für die letztlich nur wenige kleine Löcher gebohrt oder gelasert werden müssen – und die Schädeldecke nach Abschluss der Implantation wieder komplett verschlossen wird.

5 „Gefällt mir“

Vielleicht ein paar Gedanken zu den ethischen Fragen, die sich aus der Entwicklung von Computer-Hirn-Schnittstellen ergeben. @Thomas hat sich auf Twitter den Beginn dieser Diskussion gewünscht.

Kann Elon Musk bald unsere Gedanken lesen?

Nein, jedenfalls nicht den Inhalt unserer Gedanken. Das, was Neuralink und andere derzeit entwickeln, wird noch auf lange Zeit nicht in der Lage zu sein, uns wirklich auszulesen. Aber das muss gar nicht sein, um schon ganz erhebliche ethische Probleme zu erschaffen.

Mit der bereits oder bald verfügbaren Technik lassen sich sensible Dinge über Menschen herausfinden. Darauf weist Philipp Kellmeyer vom Neurotechnology Lab der Uni Freiburg seit Jahren hin. Vor einem Jahr hat unserer Kollegin Christiane Miethge für einen WIRED-Artikel, der immer noch echt lesenswert ist, unter anderem das gesagt:

„Gehirndaten sind hochinformative, biologische Daten. Sie könnten Informationen über Epilepsie oder andere versteckte Krankheitszustände enthalten, über die ich selbst vielleicht noch gar nichts weiß.“

Zeig mir dein Gehirn - und ich sag mir, ob du an Epilepsie leidest, ob du das willst oder nicht. Doch es geht noch darüber hinaus: Eine Computer-Gehirn-Schnittstelle, die nur die recht oberflächlichen Daten, um die es bisher geht, sammelt und mit einem Deep-Learning-System verbunden ist, könnte die individuellen Muster jedes Gehirns erkennen. Dazu hat Kellmeyer später in einem anderen WIRED-Interview das zu uns gesagt:

Wenn dann ein Arzt den Patienten fragen würde, ob er Schmerzen hat und der Patient mit „Nein“ antwortet, obwohl das System etwas anderes anzeigt, dann wäre dessen Freiheit kompromittiert. Die Gründe dafür können vielfältig sein – etwa, weil es dem Patienten unangenehm ist, den Schmerz zuzugeben, oder weil er dem Arzt keine Umstände machen will, oder weil ein Angehöriger im Raum ist. All diese Möglichkeitsräume, all diese Freiheit die wir momentan haben, um den Inhalt unseres inneren Erlebens für uns zu behalten und zu entscheiden, was davon nach außen kommt und was nicht – diese Freiheit wäre dadurch in einer gewissen Weise kompromittierbar.

Die Messung der Gehirnströme mit EEGs - also ohne, dass die Schädeldecke aufgebohrt wird - dient in Nordamerika schon heute dazu, um Straftäter zu überführen. Denn in Kombination mit Augentrackern und anderen Sensoren lässt sich damit offenbar sehr genau feststellen, welche sexuelle Präferenzen ein Beschuldigter hat.

Was wollen Firmen mit unseren Gehirndaten?

Da sind die meisten Beobachter ziemlich nüchtern. Das, zum Beispiel, hat Christiane damals als Einschätzung bekommen:

„Natürlich geht es Facebook dabei vor allem um unsere Gehirndaten. Sie würden das lieben“, bestätigt mir der Silicon Valley Investor Steve Hoffmannim Skype-Gespräch. „Sie haben bereits eine Maschine, die soviel persönliche Daten einsaugt wie nur irgendwie möglich. Wenn sie mit Hilfe von Gehirndaten ein Level tiefer gehen können, werden sie das natürlich machen.“

Sollte die Manipulation von Gehirndaten irgendwann möglich sein, sehen andere ganz schwarz:

„Die Wirkung von Atombomben ist regional begrenzt. Die Wirkung und Manipulation von hunderttausenden und millionenfach verfügbaren neuronalen Daten ist aus meiner Sicht mindestens vergleichbar aber – voraussichtlich gefährlicher“, sagt der Datenschutzexperte Philipp Otto vom Berliner iRights.Lab.

Das mal nur, um ein bisschen zusätzlichen Input für eine Diskussion zu liefern. Ich persönlich finde es eine höchst unangenehme Vorstellung, das eigene Gehirn dauerhaft an Maschinen anzuschließen - auch wenn ich einige wirklich gute Anwendungsfelder sehe, zum Beispiel für Menschen mit Prothesen. Aber darüber hinaus könnten wir dann auch noch in einen Wettbewerb der künstlichen Gehirnoptimierung geraten. Der Wettbewerb um den tollsten Körper oder das hübscheste Gesicht ist aber schon schlimm genug. Elon Musks Schauerthese vom Wettrüsten gegen eine übermächtige KI finde ich, naja, schon etwas weit hergeholt…

Lese- und Schautipps

Hier sind noch die Artikel aus dem WIRED-Archiv, auf die ich hingewiesen hatte:

Und hier eine schöne und nicht zu lange Doku vom Bayerischen Rundfunk für ARTE:

5 „Gefällt mir“

Hoch interessant, danke @Wolfgang @Michael! Ein paar lose Gedanken dazu - in Verlängerung Eurer Themen:

Das „Auslesen“ von Gedanken funktioniert heute schon zum Teil ganz gut. Wendet man beispielsweise Methoden der künstlichen Intelligenz zur Analyse von Hirnscans an, kann man bereits halbwegs zuverlässige Rückschlüsse auf individuelle Eigenschaften, Fähigkeiten und Neigungen ziehen. Ich habe kürzlich zusammen mit dem Neurowissenschaftler Simon Eickhoff dazu einen Artikel in der Neuen Zürcher Zeitung geschrieben, der den Forschungsstand ein bisschen beleuchtet und versucht, die Brücke zu den gesellschaftlichen Herausforderungen zu schlagen. Der Titel lautete: „Die Gedanken sind frei - oder doch nicht?“ Simon leitet das Institut für Systemische Neurowissenschaften an der Uni Düsseldorf und das Institut Brain and Behaviour des Forschungszentrums Jülich, wo er intensiv vor allem an medizinischen Anwendungen forscht.

Mediziner machen machen sich außerdem bereits die Methode des Neurofeedbacks zunutze, um mit Locked-In-Patienten zu kommunizieren oder Epilepsie zu therapieren. Die Entwicklung von Gehirn-Computer-Schnittstellen zielt aber auch auf das Human Enhancement oder Human Upgrading gesunder Menschen ab. So verstehe ich zumindest die Ambitionen von Elon Musk. Dass man das Thema ernst nehmen sollte, zeigt ein Blick über den Teich: Die amerikanische Innovationsagentur DARPA (Defense Advanced Research Projects Agency) investiert schon seit einiger Zeit in die Entwicklung von Neurostimulatoren: Sie will damit die learning rate/cognitive skill performance von Soldaten im Vergleich zu herkömmlichen Trainingsmethoden deutlich steigern. Der Schritt in „zivile“ Anwendungen ist dann im Zweifel auch nicht weit.

Was hieße das aber zum Beispiel für die Zukunft des Lernens und die Zukunft des Arbeitens? Welche gesellschaftlichen, ethische und ökonomischen Konsequenzen ergeben sich daraus? Diesen Fragen haben wir uns Anfang des Jahres einmal versucht, in einem Workshop zusammen mit einigen Young Talents bei acatech zu nähern. Offen gestanden haben wir mehr Fragen als Antworten produziert. Recht abstrakt hatten wir am Ende folgende Handlungsfelder identifiziert:

image

Zum Schluss vllt. noch drei Zitate, die ich in dem Gesamtkontext recht illustrativ fand:

In March 2016, DARPA announced the Targeted Neuroplasticity Training (TNT) program, an effort to enlist the body’s peripheral nervous system to achieve something that has long been considered the brain’s domain alone: facilitation of learning. […] DARPA’s TNT efforts differ from the Agency’s previous neuroscience and neurotechnology endeavors by seeking not to restore lost function but to advance capabilities in healthy individuals. By the end of the planned four-year program, DARPA aims to demonstrate that TNT methods and technologies can yield at least a 30 percent improvement in learning rate and/or skill performance over traditional training regimens, with minimal negative side effects. [DARPA 2017]

To a scientist, to think about changing the fundamental nature of life — creating viruses, eugenics, etc. — it raises a specter that many biologists find quite worrisome, whereas the neuroscientists that I know, when they think about chips in the brain, it doesn’t seem that foreign, because we already have chips in the brain. We have deep brain stimulation to alleviate the symptoms of Parkinson’s Disease, we have early trials of chips to restore vision, we have the cochlear implant — so to us it doesn’t seem like that big of a stretch to put devices into a brain to read information out and to read information back in. [Elon Musk 2017]

The nature of education will change once again when we merge with nonbiological intelligence. We will then have the ability to download knowledge and skills, at least into the nonbiological portion of our intelligence. Our machines do this routinely today. If you want to give your laptop state-of-the-art skills in speech or character recognition, language translation, or Internet searching, your computer has only quickly download the right patterns (the software). We don’t yet have comparable communication ports in our biological brains that represent our learning. That is one of many profound limitations of the biological paradigm we now use for our thinking, a limitation we will overcome in the Singularity. [Ray Kurzweil 2006]

5 „Gefällt mir“

Jain. Daher schrieb ich auch explizit „Gedankenimpulse“ – gemeint sind damit jene elektrischen und dadurch auslesbaren Ladungen, die meist motorische Aktionen auslösen oder auslösen sollen.

Aber, wie @Thomas schreibt, eben auch Reaktionen wie Ekel, Freude,Wut oder Angst. Die lassen sich dann durch computerisierte Interpretation in Bewegungs- und Aktionsbefehle für die Steuerung einer Maus oder eines Touchscreens umwandeln. Oder: Wie bei einigen Spieleentwicklern schon spekuliert wird, um bei Games in der Zukunft noch effektiver zu machen. Es ließe sich Horror-Games etwa die „Angstkurve“ des Spielers verfolgen und ganz gezielt ein Jump Scare auslösen, wenn er gerade dabei war, sich abzuregen – oder der Schwierigkeitsgrad automatisch herunter regeln, wenn der Spieler allmählich sauer wird.

Die Sache mit den Erinnerungen und Verstand: Die können wir derzeit nicht auslesen, weil wir nicht einmal wirklich sicher sind, wo die überhaupt gespeichert werden. Es gibt zwar Theorien – aber die sind aufgrund mangelnder Überprüfbarkeit derzeit eben nicht wirklich verifizierbar.

Am nächsten dran, die Sache zu lösen ist wohl der Neurowissenschaftler Sebastian Seung. Der Princeton-Forscher glaubt, dass sich das menschliche „Ich“ in den dünnen Verbindungen zwischen den Nervenzellen versteckt, die als Konnektome bezeichnet werden. Auf diese Mutmaßung stützt sich auch das Start-up Nectome, das verspricht, irgendwann mal, wenn die Technik bereit ist, Backups eines Gehirns anzulegen, um damit irgendwann eine verstandesbasierte Wiederbelebung nach dem Tod oder sogar Unsterblichkeit zu ermöglichen.

4 „Gefällt mir“

Ich bin ehrlich gesagt kein Fan von implantiertem Kram (z.B. Elektroden oder Chips im Gehirn) im Körper. Vielmehr reicht es meiner Meinung nach vollkommen, aussen am Kopf Elektroden/Sensoren zu tragen.

Diese Sensoren zur Abnahme von Gehirnströmen könnten in Brillengestellen, Ohrhörern oder auch Halsbändern verbaut werden und per Bluetooth LE drahtlos mit leistungsfähigen Smartphones verbunden sein.

Denn seit dem iPhone X ist dort eine Neural Engine im Prozessor verbaut, die es in Echtzeit erlauben würde, zumindest fundamental Gehirnströme zu interpretieren. Neben Gesundheitsfunktionen wie Erkennung von Schlag- oder Epilepsieanfällen könnte auch die Art der Gehirnwellen erkannt werden.

Bezüglich der Gehirnwellen wäre m.E. besonders interessant Gamma-Wellen zu detektieren. Diese treten bei tiefer Meditation ein und könnten innerhalb einer Meditations App über einen Feedback-Mechanismus dem Meditierenden zurückgespiegelt werden. Ich stelle mir das wie Topfschlagen vor - je näher man der Produktion von Gamma-Wellen kommt um so „heißer“ ein optisches und/oder akustisches Feedback. Dadurch würde sich die oft jahrelange Übung in der Meditation nachhaltig verkürzen lassen.

Weit in die Zukunft gedacht würde es mit ausgeklügelteren Sensoren und hochleistungsfähigen neuronalen Netzen im Smartphone möglich, die Ströme im Hör- und Seh- und Denkapparat zu detektieren. Dann wären wir bei der Realisierung von technisch gestützter Telephatie.

Das geht schon. Allerdings sind Messungen mit Sensorkappen oder Sensorringen vergleichsweise ungenau und springen nur auf recht starke Impulse an. Den genauen Ursprung und Weg eben jener zu verfolgen, ist so noch nicht möglich. Für das, was Neuralink plant, ist es derzeit zumindest keine Option.

Diese Sensoren zur Abnahme von Gehirnströmen könnten in Brillengestellen, Ohrhörern oder auch Halsbändern verbaut werden und per Bluetooth LE drahtlos mit leistungsfähigen Smartphones verbunden sein.

Es gibt dahin schon durchaus Pläne von einigen Start-ups … aber für eher „spielerische“ oder trivialere Anwendungen. Eben weil die Messungen nicht so genau ausfallen.

Bezüglich der Gehirnwellen wäre m.E. besonders interessant Gamma-Wellen zu detektieren. Diese treten bei tiefer Meditation ein und könnten innerhalb einer Meditations App über einen Feedback-Mechanismus dem Meditierenden zurückgespiegelt werden. Ich stelle mir das wie Topfschlagen vor - je näher man der Produktion von Gamma-Wellen kommt um so „heißer“ ein optisches und/oder akustisches Feedback. Dadurch würde sich die oft jahrelange Übung in der Meditation nachhaltig verkürzen lassen.

Ich hab jetzt nicht genau nachgeschaut. Aber ich glaub, das ist’s was, ChooseMuse machen will.

1 „Gefällt mir“

Dieser Satz aus dem Kurzweil-Zitat kommt den Vorstellungen von Elon Musk ja sehr nahe: Wir sollen unserem Gehirn Updates oder Apps verpassen können. Das klingt erstmal ganz spannend, aber wirft aus meiner Sicht auch soziale Fragen auf: Werden reiche Menschen, die ohnehin schon besseren Zugang zu Bildung haben, dann auch noch mehr Möglichkeiten haben, ihr Gehirn zu optimieren?

Unabhängig davon finde ich es ohnehin fragwürdig, wenn es bei der Technologie nicht mehr darum geht, Menschen zu unterstützten, die Einschränkungen haben, sondern wenn es schon wieder um Selbstoptimierung geht.

Zu deinem sehr spannenden Artikel in der NZZ, @Thomas: Darin sprecht ihr auch das Problem an, dass sich auch Algorithmen irren können - im Gegensatz zu Menschen ihre Entscheidungen aber nicht erklären können. Am Ende des Tages treffen auch Deep-Learning-Algorithmen ihre Entscheidungen auf Basis von Wahrscheinlichkeiten. Sie werden auf Basis der Hirnstrom-Messung ermitteln, wie wahrscheinlich es ist, dass jemand lügt… Wollen wir den Kollateralschaden in Kauf nehmen, dass Algorithmen Menschen falsch einschätzen und diese daher Konsequenzen spüren müssen?

1 „Gefällt mir“

Da wären wir dann schon wieder bei der Science Fiction. Es hängt ja nicht von der Technologie ab, sondern wie sich die Gesellschaft darum herum entwickelt und damit umgeht. Im Kultur-Zyklus von Ian Banks sind die Neural Lace einfach Gemeingut, weil jedes Individuum und seine Erfahrung und sein Beitrag zur Gesellschaft wertgeschätzt wird; jedes Individuum befähigt sein und werden soll, etwas beizutragen.

In Altered Carbon hingegen, wo sogenannte „Stacks“ im Nacken den gesamten Verstand speichern können, um Menschen in neuen Körpern wiederzubeleben, erlaubt diese Technologie (samt dem Klonen) den Reichen ein ewige Jugend und Unsterblichkeit. Während andere nach ihrem Tod … nun … einfach Tod sind oder auf Eis liegen, weil sie sich keinen neuen Körper leisten können.

1 „Gefällt mir“

Genau dazu brauchen wir mE eine frühzeitige gesellschaftliche Debatte, die a) fundiert ist (was wird technisch wirklich möglich sein?) und b) positive Szenarien ermöglicht, wie wir mit den neuen Entwicklungen umgehen können (offen für Neues/Innovation, gleichzeitig verantwortungsbewusst).

Was die technischen Möglichkeiten betrifft, sollten wir uns vllt auch nicht von Utopisten wie Kurzweil verrückt machen lassen. Einen hörenswerten Beitrag dazu hat der Physiker und Philosoph Marco Wehr kürzlich für den SWR produziert: https://www.swr.de/swr2/programm/sendungen/wissen/digitale-wunderwelten/-/id=660374/did=22368408/nid=660374/1xva4w3/index.html.

Er macht deutlich, wie wichtig der Körper (!) für das Denken ist - und was das letztlich über die Grenzen der Künstlichen Intelligenz aussagt.

1 „Gefällt mir“

Habt ihr mal selbst Neurofeedback ausprobiert?
Hilft unheimlich als Diskussionsgrundlage und um vom Theoretischen ins Praktische zu kommen.
Lg

2 „Gefällt mir“

Ich leider noch nicht. Hast du vielleicht gleich einen Tipp, wo das möglich ist?

Ja, bei BrainBoost in München - technik ist noch nicht sehr ausgereift, aber sie arbeiten dran. In dem US haben Les Fehmi aus Princeton dazu extrem viel gemacht, das „40 years of zen“ team sind seine alten Doktoranden. Super commercial, aber funktioniert.

1 „Gefällt mir“

Ah, sehr cool. Kennst du jemanden von BrainBoost? Kontakt gerne als Direktnachricht an mich.

Interessantes Interview heute mit Yuval Noah Harari in der NZZ - über den Menschen als „hackable animal“: https://www.nzz.ch/feuilleton/yuval-noah-harari-der-mensch-kann-gehackt-werden-ld.1496741

1 „Gefällt mir“

Wow, was für eine Vorstellung. Das ist nur eine von den vielen spannenden Aussagen aus dem Interview. Danke für den Link!

In 100 oder 200 Jahren wird die Erde von Wesen dominiert sein, die etwa so viel mit uns heutigen Menschen gemein haben wie wir selber mit Neandertalern oder Schimpansen.

Beim Lesen hab ich mich gefragt ob wir in ein solches Startup investieren würden, das es schafft eine Brücke neuartiger Qualität zwischen Gehirn und Maschine aufzubauen, oder nicht. Die Antwort für mich aus dem Bauch heraus ganz klar: Ja!
Denke, damit bin ich nicht alleine. Wenn solche Interfaces möglich sind werden sie auch kommen. Und sie werden nicht mit bestimmten ethischen Richtlinien designed werden.

Ähnlich wie bei Computer-Viren, reagieren wir immer nur mit unseren ethischen Maßnahmen und Debatten in großer Breite und versuchen das Pendel dann wieder zum Zurückschwingen zu bringen. Es muss erstmal etwas sehr Negatives passieren!

Wie könnte man die Dynamik umdrehen und eine „vertretbare“ Form solcher Produkte entwickeln und nicht erst als Reaktion versuchen die Uhr zurückzudrehen?

Ist das überhaupt möglich? Wir können uns, bevor wir solche Systeme in genügend großer Breite im Einsatz gesehen haben gar nicht ausmalen welche Vielzahl an Gefahren und Möglichkeiten sie mit sich bringen.

Technologiediffusion wird durch digitale Netzwerke schneller und wenn Anwendungen in großer Breite Verwendung finden, dann ist es extrem schwer entgegenzuwirken.

Bin gespannt welche Netzwerke, Perspektiven (auf den Mensch selber) und Menschentypen diese „next-level“ Interfaces Errichten werden.

Vielleicht nehmen wir uns als Individuum und Mensch mit individueller Freiheit auch einfach zu wichtig. Wir sehen durch Daten schon heute wie sehr zB Entscheidungsfreiheit ein Schein ist, bzw, dass wir nur denken oder fühlen wir seien frei. Entscheidungen des Einzelnen sind beispielsweise im Hirn schon erkennbar, bevor wir uns bewusst sind, dass wir eine Entscheidung treffen werden. Genauso wissen wir heute auch, dass unser Verhalten bemessen von aussen recht gut vorhersehbar ist. Damit verdienen viele sehr viel Geld.

Sind wir vielleicht sogar in einer Identitätskrise und pochen deshalb so sehr auf alte Ideen von Freiheit? Muss man den Begriff von Menschlichkeit und Freiheit neu erfinden? Für mich jedenfalls ist je mehr ich über unser Gehirn und Intelligenz und Bewusstsein grundsätzlich erfahre gar nicht so klar warum wir als Mensch und in unseren Freiheitsrechten so besonders sein sollen.

1 „Gefällt mir“

Die Frage für mich ist: Wozu brauchen wir AI - Mensch Verbindung wenn wir noch nichtmal einen Bruchteil des menschlichen Potenzials nutzen? Unser durchschnittliches Gehirn 2019 ist vergleichbar mit einem Ferrari, der im 1. Gang bei 2000 Umdrehungen läuft…

1 „Gefällt mir“

Facebook scheint die Verbindung jedenfalls zu brauchen. Der Konzern finanziert die Entwicklung einer Technologie, mit der man mit einer Art Headset die Worte lesen kann, die jemand sprechen oder tippen will.

Offenbar gibt es dabei jetzt Fortschritte. Das Forscherteam hat gerade einen Bericht in Nature veröffentlicht, aus dem hervorgeht, dass es in der Mehrzahl der Fälle gelungen ist, die Antworten der Probanden auf vorgefertigte, klar definierte Fragen zu erkennen.

Hier gibts den ganzen Text:
https://www.nature.com/articles/s41467-019-10994-4

Hier eine Zusammenfassung:

1 „Gefällt mir“

Mich würde hier vor allem die Dekolonialisierung dieser Zukunftsvisionen interessieren? Darpa, Musk, Kurzweil, sind ja die üblichen Verdächtigen, wenn es darum geht uns korporative Schreckenszenarien als schmackhaft und attraktiv zu verkaufen. Viel interessanter wären jedoch Bilder der dekolonialisierten Zukünfte, in denen diese Szenarien abgeändert werden, demokratisiert, partizipatorisch und transformativ einer verantwortungsbewussten Alternative zugewandt. Dann können wir gerne darüber reden. So finde ich es einfach mal wieder typisch im Sinne von ‚Solutionism‘ und dem ‚technological fix‘, dass diese Hegemonie es wieder einmal wagt uns zu erzählen wie denn mal die Zukunft zu sein hat. Nervt in der Eindimensionalität mittlerweile gewaltig um ehrlich zu sein. :smiley: Trotzdem sehr guter und wichtiger Beitrag von dir @Thomas

1 „Gefällt mir“

Klingt für mich noch sehr abstrakt. Magst du mal ein Beispiel bringen?