Das 1E9_Update vom 3. März 2021 // Keine Zeitmaschine, zu wenig Vorstellungskraft, dafür eine KI-Nase

Guten Mittag, liebe @Mitglieder von 1E9!

Welche Managerin, welcher Gründer, welche Erfinderin möchte schon, dass das eigene Produkt trotz guter Absichten zu Leid und Elend beiträgt? Vermutlich stand das nicht einmal bei Facebook-Chef Mark Zuckerberg auf der Agenda. Und doch sorgten die Algorithmen seines Unternehmens für die Verbreitung von Hass und trugen damit wohl zu schwersten Menschenrechtsverletzungen bei.

Doch wie lässt sich vermeiden, dass eine Technologie wie Künstliche Intelligenz, die zum Teil auf selbstlernenden und damit weniger durchschaubaren Systemen basiert, unvorhergesehenen Schaden anrichtet? Schaden, den nicht einmal Normen oder Gesetze verhindern könnten? Darüber hat sich @MaxHaarich für uns Gedanken gemacht. Als zentrales Problem sieht er einen Mangel an Vorstellungskraft – und schlägt gleich eine Lösung vor: Hofnärrinnen und Hofnarren. Das mag erst einmal seltsam klingen, liest sich aber sehr schlüssig – vertraut mir!

In zwei thematisch passenden Beiträgen schreibt @MaxHaarich außerdem über den Beitrag von Kunst zu ethischer Künstlicher Intelligenz und über das Dual-Use-Dilemma, das besagt, dass jede Technologie auch für böse Zwecke missbraucht werden kann – auch KI. Wer sich für radioaktive Zahnpasta interessiert, sollte vor allem den zweiten Text nicht verpassen.

Titelbild des 1E9 Themenspecials KI, Verantwortung und Wir
Die Texte gehören zu unserem Themenschwerpunkt KI, Verantwortung und Wir, in dem wir uns einen Monat mit dem verantwortungsvollen Umgang mit KI beschäftigt haben – und dabei viele interessante Debatten geführt haben. Hier findet ihr alle Beiträge daraus!

KI-Filme, eine künstliche Nase und eine Zeitmaschine

Da der Lockdown, wie sich abzeichnet, noch ein wenig verlängert wird, haben die meisten vermutlich weiterhin Abende auf der Couch vor sich. Dafür hätten wir ein paar Empfehlungen – auch noch passend zu unserem KI-Themenspecial: 10 Filme über Künstliche Intelligenz, die uns zum Nachdenken bringen. Unser SciFi-Experte @Michael hat die Liste zusammengestellt. Ergänzungen kamen bereits von @marcowehr @CTTF @Ralph und @Ronit. Vielleicht fällt ja noch jemandem etwas ein?

Bevor ich auch ein paar Nicht-KI-Themen für euch habe, noch diese Leseempfehlungen: Ein Start-up aus Dresden arbeitet an einer künstlichen Nase, die Gerüche mithilfe von KI erkennen soll. Dabei verfolgt es einen, wie ich finde, sympathischen Ansatz – denn es lädt insbesondere die Maker-Community dazu ein, gemeinsam eine Open-Access-Datenbank aufzubauen und über Anwendungsideen nachzudenken. Unterdessen hat eine andere KI dank eines virtuellen Gedächtnisses neue Rekorde in Videospiel-Klassikern aufgestellt, die bisher als zu schwierig für KI-Systeme galten.

Damit aber genug KI für heute. Reden wir noch über Zeitmaschinen. In China soll derzeit eine gebaut werden. Hieß es jedenfalls im Netz, wo eine vermeintlich geleakte Power-Point-Präsentation über ein Gerät, das Raum und Zeit verzerren sollte, die Runde machte. Natürlich ist an der Geschichte nichts dran – ihre Hintergründe sind dennoch sehr unterhaltsam. @Michael hat sie für uns recherchiert.

Der NFT-Kunst-Hype geht weiter

Die Preise für digitale Kunstwerke, die Dank Non-Fungible-Tokens auf der Blockchain zu echten Einzelstücken werden, klettern weiter. Ist das historisch oder hysterisch, fragt sich wiederum @MaxHaarich – und steigt selbst ins NFT-Kunstgeschäft ein. Und das mit dem vielleicht kleinsten Kunstwerk der Menschheitsgeschichte. Haben wir noch andere NFT-Kreative in der Community? Dann lasst uns das gerne unter dem Beitrag von Max wissen!

Technologie, mit der sich das Klima aktiv steuern lässt, zum Beispiel, indem die Sonneneinstrahlung auf die Erde künstlich verringert wird, wird seit Jahren kontrovers diskutiert. Werden wir am Ende auf dieses Geo-Engineering angewiesen sein, weil wir es nicht schaffen, unseren CO2-Ausstoß zu verringern? Ist das Risiko solcher Eingriffe überhaupt vertretbar? Vor diesem Hintergrund will ein Team aus Harvard nun dennoch einen Ballon testen, mit dem das Klima manipuliert werden könnte.

Noch höher hinaus möchte das Raketen-Start-up Rocket Lab. Anders als bisher angekündigt, will das Unternehmen nun doch größere Raketen bauen, die dann auch Menschen ins All transportieren könnten. Weitere News findet ihr in unserem aktuellen Sonntags-Newsletter This Week in Future! – darunter einen Ausblick auf die wichtigsten Technologien des Jahres, ein kultiges und ein winziges Elektroauto und einen Robohund im Polizeieinsatz. Danke an @Kuku für die Ergänzungen! Wer den Newsletter auch will – nur diesem Zirkel beitreten und schon kriegt ihr ihn auch.

War das jetzt alles ein bisschen viel? Dann lasst doch einfach mal los! Schafft Raum für Neues! Und bleibt natürlich auch in diesen schwierigen Zeiten positiv! Keine Sorge, bei 1E9 kriegt ihr solche Ratschläge nicht. Wohl aber in vielen anderen Publikationen – und das, während Pandemie und Lockdown für viele ein Dauerstresstest sind. Genau darüber hat @juliaschneider in der neuesten Ausgabe ihrer Comic-Kolumne Die Corona Scribbles reflektiert.

Das war’s von mir. Bei Fragen, Wünschen, Kritik – schreibt mir einfach eine private Nachricht oder kommentiert dieses Update auf unserer Plattform öffentlich. An alle Mitglieder, die uns finanziell unterstützen: DANKE! Ohne euch ginge das alles nicht.

Bis dann
euer Wolfgang

4 Like

Eine sehr gute Übersicht und absolut relevante Fragen. Jedoch sind es ja nicht die Algorithmen per se, die den Hass, die Ausgrenzung und die Diskriminierung verbreiten, sondern immer noch Menschen, so vielseitig und vielschichtig diese auch differenziert betrachtet sein können, das Individuum hat sich mit diesem Massenphänomen identifiziert und infiziert und Ideologien und Vorurteile herrschen jetzt vor, statt tiefgründige verständnisorientierte Verhaltensmuster. Es existiert die Terminologie Autocults, die besagt, algorithmische Superstrukturen werden erst einmal nichts anderes können als die kulturelle Weaponization jeder gegen jeden weiterhin voranzutreiben. Warum? Weil AI das Cooling System unseres Gehirns so schnell nicht replizieren kann. CPU Chips laufen heiß und können nun einmal nicht mehr als die hitzige Fragmentierung der Gesellschaften induzieren. Es gilt daher unsere Sensibilität für Bullshit zu erhöhen und das funktioniert nur durch kollektive Intelligenz und Delphihood. Und beides, wenn richtig angewandt, tut sehr sehr weh und ist unglaublich unangenehm, weil das Ausbrechen und das Überwinden von Komfortzonen durch die gesamte Zivilisationsgeschichte hindurch, immer schon sehr sehr weh getan hat und unglaublich unangenehm war.

4 Like
2 Like