Endlich wird uns Künstliche Intelligenz von unserer Arbeit erlösen. Sagt wer?

Von Goldman Sachs bis McKinsey: Wieder einmal überschlagen sich die Prognosen darüber, welche und wie viele Jobs schon bald von Künstlicher Intelligenz übernommen werden können. Unsere Science-Fiction-versierte Kolumnistin Kryptomania lässt sich von solchen Zahlen, ähnlich wie der Kultautor Stanislav Lem, nicht verunsichern. Stattdessen hinterfragt sie, wie und warum solche Zukunftsvorhersagen eigentlich entstehen.

Eine Kolumne von Dr. Aleksandra Sowa alias Kryptomania

Es ist wieder so weit. Kaum hat ChatGPT sein erstes Interview gemacht, den ersten Zeitungsartikel geschrieben und sein erstes Musikstück komponiert, sind sie da: Lageberichte und Prognosen, in denen Analysten aus verschiedenen Think-Tanks zu wissen behaupten, welche Jobs die Künstliche Intelligenz (KI) den Menschen wegnehmen wird.

Manche sind in ihren Aussagen sogar so genau, dass es fast verwundert, wenn dem Bericht nicht gleich Listen mit Namen der Menschen beigefügt werden, die ihre Jobs demnächst verlieren. Namen der Menschen, die vom durch die KI angefachten Wachstum profitieren, stehen jedoch auch nicht darin.

Goldman Sachs hat im Bericht The Potentially Large Effects of Artificial Intelligence on Economic Growth (Briggs/Kodnani) gleich 300 Millionen Jobs identifiziert, die durch KI ersetzt oder ergänzt werden könnten. Dafür hat man 900 Berufe analysiert und bei ca. zwei Drittel davon Potenziale für die Automatisierung durch generative KI entdeckt, wozu auch ChatGPT des Unternehmens OpenAI gehört. Diese Automatisierung soll der Preis für siebenprozentige globale Wirtschaftswachstum sein, das uns laut den Analysten zehn Jahre nach der Adoption der KI beschert wird.

Das gilt jedoch lediglich unter der Voraussetzung, dass KI liefert, was sie verspricht. Der Produktivitätszuwachs wird nur halb so hoch sein, wenn die Adoption der KI nicht zehn, sondern zwanzig Jahre dauert, warnt Goldman Sachs. Und auf nur ein Drittel davon schrumpfen, falls diese sich auf dreißig Jahre ausdehnt.

Unsere sterblichen Überreste wird KI wohl nicht entsorgen können

Wirtschaftswachstum durch KI mag toll klingen, Jobverlust durch Automatisierung eher nicht. Solche Berichte können daher sehr unterschiedliche Reaktionen hervorrufen. Dass sie nachhaltig überzeugend wirken können, belegt jedenfalls eine Studie der Boston Consulting Group (BCG), in der Befragte selbst einschätzen sollten, wie sehr ihr Job von der KI gefährdet ist: 40 Prozent der befragten Deutschen gaben an, dass ihr Job künftig durch KI nicht mehr existieren wird, berichtete das Handelsblatt Anfang Juni aus der noch nicht veröffentlichten Umfrage. 30,4 Prozent sollen sich beim Thema KI in Bezug auf Arbeitsplätze besorgt gezeigt haben. (In den Niederlanden sollten es beispielsweise 42,4 Prozent, in Italien jedoch nur 27,9 Prozent gewesen sein).

Doch bevor man sich in weiße Laken einwickelt und hinlegt, damit diejenigen, die nach uns kommen, es leichter haben, hinterher aufzuräumen, sollten wir solche Ergebnisse hinterfragen. Ob auch diese Art von Dienstleistungen – das Entsorgen unserer sterblichen Überreste – künftig von der KI übernommen werden könnte, geht aus dem Bericht von Goldman Sachs nicht explizit hervor. Die Vermutung liegt nahe, dass dies nicht der Fall sein wird, da lediglich 1 Prozent der Tätigkeiten im Bereich „Building and Grounds Cleaning and Maintenance“ als für die Automatisierung durch KI geeignet geschätzt wird.

Die erste Frage betrifft Modelle, die der Erstellung solcher Prognosen zugrunde liegen. Ausgedrückt mit den Worten des ehemaligen russischen Spions Viktor Suvorow: Eine Prozentzahl von einer Unbekannten beflügelt nur die Fantasie eines Dummkopfs. Deswegen: erst einmal fragen und hinterfragen. Dabei geht es weniger darum, wie die Methodik im Detail aussieht, sondern darum, ob sich mit dieser in der Vergangenheit überhaupt belegbar verlässliche Prognosen erstellen ließen. Es ist also die Frage nach einem historischen Nachweis der Wirksamkeit eines Modells.

Vorhersagen sind schwierig, insbesondere die Zukunft betreffend. Das zeigte beispielsweise Stanislaw Lem in seinem im Jahr 2000 veröffentlichten Buch Riskante Konzepte (Originaltitel: Okamgnienie), in dem er die Ergebnisse der Studie des Bundesministeriums für Forschung und Technologie (BMFT) namens Technologie am Beginn des 21. Jahrhunderts aus dem Jahr 1993 auswertete. In der Studie wurden Technologiebereiche der Zukunft identifiziert, darunter Nanotechnologie, Sensortechnik, Adaptronik, Photonik, biomimetische Werkstoffe, Fullerene sowie Neuroinformatik und Künstliche Intelligenz, die „herkömmliche Datenverarbeitung um die Wissensverarbeitung ergänzen“ sollte (Lem 2000, S. 8).

Mit der Technologieprognose konzentrierte man sich auf den Zeitrahmen der nächsten zehn Jahre. Das Ergebnis, wie zutreffend die Vorhersagen waren, lautete jedenfalls aus der Perspektive des Jahres 2000, in dem Stanislaw Lem sein Buch schrieb: keine Treffer. Bemerkenswert, aber auch typisch sei, so Lem, dass weder die Entwicklung des globalen Kommunikationsnetzwerks, das heißt des World Wide Web, noch die Biotechnologie in der Studie bedacht wurden, obwohl das WWW nur wenige Jahre nach der Publikation richtig durchstartete und die Biotechnologie bereits in den 1990er-Jahren das technisch-ethische Interesse der Wissenschaft geweckt hatte.

Das Vorhersagen künftiger Technologien ist eine undankbare Aufgabe

Laut Stanislaw Lem zeigt das Beispiel der BMFT-Studie, welch eine undankbare Aufgabe das Vorhersagen künftiger Technologien und wie viel schwieriger sogar das sogenannte Technology-Assessment ist, bei dem es um die Prognose der zivilisatorischen oder gesellschaftlichen Folgen der Implementierung dieser Technologien geht. Die Ursache für die Niederlagen der Futurologie sieht Lem im Buch Riskante Konzepte, in dem er seine früheren Werke Summa Technologiae und Dialoge Revue passieren lässt, darin, dass sie „danach trachtete, über Generalisierungen hinauszugehen“.

„Seit vielen Jahren wird beschworen, dass uns mit der Digitalisierung die Arbeit ausgeht“, erinnert passend dazu auch das Handelsblatt an eine Aussage der DGB-Chefin, Yasmin Fahimi. „Das ist offensichtlich Quatsch.“ Durch den Versuch, den Stand der Dinge in allen Einzelheiten zu konkretisieren, seien laut Lem zahlreiche Prognosen, die in der zweiten Hälfte des 20. Jahrhunderts erschienen, gescheitert. Mit den Technologieprognosen hatte man, jedenfalls hierzulande, tatsächlich wenig Glück. Könnte vielleicht Künstliche Intelligenz die Arbeit der Futurologie verbessern oder zumindest automatisieren?

Zumindest setzen zahlreiche Prognoseinstitute mittlerweile regelmäßig auf KI-Modelle. Nicht deshalb, weil die Methoden erwiesenermaßen besser oder zuverlässiger seien – sondern, weil damit ein Modernitätssignal setzt und sich vieles, wo KI draufsteht, heute besser verkauft als das, wo keine KI drinsteckt. Um welche KI es auch immer dabei gehen mag. Des Weiteren spart man so Kosten für Fachpersonal, Statistiker, Mathematiker, Volkswirte etc., die in der Erstellung von Prognosen auf Grundlage statistischer Verfahren, Optimierung, Operations-Research etc. trainiert sind. Und, siehe da, welche Aufgaben laut dem Bericht von Goldman Sachs in den USA zu 29 Prozent von einer generativen KI übernommen werden können, bei einem mit 25 Prozent niedrigeren Durschnitt über alle Industrien hinweg: „Computer and Mathematical“Prozent. Damit belegen Informatiker und Mathematiker Platz neun von 23 Tätigkeiten, die durch KI automatisiert werden könnten.

Mit Prognosen wird auch Politik gemacht – nicht ohne Hintergedanken

Wenn eine generative KI wie ChatGPT mit 80 Prozent Zuverlässigkeit auf Grundlage von Daten, die zu 20 Prozent geprüft und (von Nichtspezialisten) für korrekt befunden wurden, voraussagt, dass eine KI mit 60 Prozent Wahrscheinlichkeit in circa zwei Jahren Amok läuft und die Menschheit ausradieren wird – was für eine Art von Aussage sollte dies eigentlich sein? Jedenfalls keine, die man als Grundlage für eine politische Entscheidung nehmen sollte. Oder?

In solchen Berichten werden des Weiteren nicht nur politische, sondern auch wirtschaftliche Aussagen getroffen. Und auf dem Markt für Prognosen und Wahrsagerei herrscht eine rege Konkurrenz. Denn mit Lageberichten und Prognosen schaffen Unternehmen nicht nur Awareness oder verbreiten für ihre Investoren oder Shareholder nützliche Stimmungen – oder eben Ängste –, man schafft auch Nachfrage nach eigenen Produkten. Das Endziel scheint irgendwie fast immer das Geld zu sein.

Wie schon früher bei Digitalisierung, Outsourcing oder Offshoring der IT, finden sich stets welche, die Profite durch Kürzung der Arbeitskosten realisieren wollen, noch bevor die Technologie, die Prozesse oder die Organisation dazu reif sind, auf bestimmte Tätigkeiten zu verzichten. Dabei passiert es ihnen relativ selten, dass sie die eigenen Aufgaben als überflüssig oder ersetzbar darstellen – nicht vollständig jedenfalls –, während viele andere Berufe als nicht „kritisch“ oder nicht mehr „relevant“ erst einmal zum Abschuss freigegeben werden können.

Um der Falle zu entgehen, in die die Futurologie getappt ist, hat Stanislaw Lem sein Wirken in zwei Zweige aufgeteilt: den allgemeinprognostischen und einen fantastisch-wissenschaftlichen. Als Science-Fiction-Schriftsteller konnte er sich so eine „verwegene Kühnheit“ leisten. Seine naturwissenschaftliche Prägung hätte ihn dennoch wenigstens davor bewahrt, mit seinen mutigen Prognosen in einer Sackgasse zu landen.

„Der Computer allein ist fähig, Recht zu sprechen.“

Wer schon einmal mit ChatGPT von OpenAI „gesprochen“ hat oder den Optimus-Roboter von Tesla auf der Bühne laufen sah, ahnt, für welche Jobs diese KIs schon heute besonders geeignet wären. Isaac Asimov, Gordon Dicksen oder Stanislaw Lem haben bereits in den 1960er- und 1970er-Jahren den komplexen Computern und Homöostaten zugetraut, politische Ämter anzustreben, Unternehmen zu leiten oder ganze Volkswirtschaften zu steuern. Und das nicht allein und wesentlich besser als die Menschen. Nur, dass die Computer bzw. KIs von heute nicht so objektiv, unkorrumpierbar und unfehlbar ist wie die ersten Großcomputer oder Roboter in den Science-Fiction-Erzählungen.

Das, was heute als KI bezeichnet wird, hat nicht nur herzlich wenig mit Vorstellungen der Filmfabrik Hollywood in der Form von Terminator, Skynet oder R2D2, sondern ebenso wenig mit den Definitionen der KI aus den 1980er- oder 1990er-Jahren gemeinsam. Hinter der Software stehen regelmäßig mächtige Interessengruppen, die darüber, „wofür“ – aber vor allem auch „wogegen“ – eine KI eingesetzt wird, entscheiden möchten.

Bemerkenswerterweise werden in der Studie von Goldmann Sachs zwei Tätigkeiten als besonders für die Automatisierung mittels KI geeignet hervorgehoben: die nach ein paar Dekaden der Digitalisierung kaum noch vorhandenen Jobs im Bereich der Büro- und administrativen Tätigkeiten und im (durchaus noch umfangreichen) Bereich „Legal“. Diese ließen sich zu einem großen Anteil zwischen 10 und 49 Prozent von der Automatisierung durch KI ergänzen oder mit einer Wahrscheinlichkeit von über 50 Prozent sogar durch KI ersetzen.

„Der Computer allein ist fähig, Recht zu sprechen. Denn er ist vorurteilslos, er ist unbefangen, kennt keine persönlichen Interessen, Vorlieben, Abneigungen. Er allein kann nicht getäuscht werden. Er allein kann sich nie irren. Er allein ist unfehlbar“, heißt es im Hörspiel Computer argumentiert nicht, basierend auf einer Erzählung von Gordon R. Dickson, das 1971 vom SWR gesendet wurde und an das der Science-Fiction-Autor Andreas Brandhorst in der Einführung zur Podcastreihe Das war morgen, die er mit Dr. Isabella Herrmann bestreitet, erinnerte.

Im Reallife sollen die Möglichkeiten der generativen KI im juristischen Umfeld bereits getestet worden sein: In einem Verfahren vor einem US-Gericht nutzte der Anwalt eine von ChatGPT vorbereitete Recherche, in der nicht existierende Präzedenzfälle von der generativen KI frei herbeifantasiert wurden. Da er das Ergebnis offenbar nicht überprüfte und es außerdem täuschend echt ausgesehen haben soll, fiel der Fehler erst nach der Überprüfung durch die Anwälte der Gegenseite auf.

Argumentieren mit Computern? Viel Erfolg.

Die Geschichte in der Science-Fiction-Erzählung Computer don’t argue von Gordon R. Dickson verläuft übrigens nicht unähnlich der wesentlich später verfassten Geschichte Qualityland von Marc-Uwe Kling. Nur, Achtung Spoiler!, dass dem Protagonisten nicht ein rosafarbener Delfinvibrator, sondern das falsche Buch, nämlich Kidnapping von Robert Louis Stevenson, von seinem Buchklub zugeschickt wird. Die Reklamation beim Buchklub bearbeiten Computer.

Werde Mitglied von 1E9!

Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.

Jetzt Mitglied werden!

Wer schon einmal versucht hat, bei einem Ticketautomaten das falsche Ticket zu reklamieren oder über das fehlende Restgeld zu diskutieren, kann den weiteren Verlauf vermutlich erahnen. Es fehlen in der Kurzgeschichte weder juristische Echtheit vortäuschende Dokumente noch Menschen, die automatisiert generierte Ergebnisse nicht hinterfragen oder überprüfen. Es ist schwer zu glauben, dass es sich dabei um eine fiktive Geschichte und nicht um ein User-Manual für Inkassounternehmen handelt.

Während sich offenbar zahlreiche Unternehmen damit beschäftigen, welche Jobs durch KI entfallen könnten oder werden, gibt es selten Studien darüber, was wir Menschen wünschen, dass KI oder Roboter für uns übernehmen sollten. Diese Lücke füllte Talib Babb im New Yorker und richtete sich dabei nicht etwa an die Arbeitgeber – sondern direkt an die KI. Menschen bräuchten ihre Jobs, so der Autor, aber es wäre prima, wenn KI uns um ein paar Aufgaben erleichtern könnte. Wie zum Beispiel das Erfinden starker Passwörter bei jedem Passwortwechsel. Oder bei der Zustellung von Anhängen, die nicht per E-Mail geschickt werden dürfen. Auch das Gießen der Pflanzen fällt uns schwer, insbesondere wenn es regelmäßig passieren sollte – da ist uns die KI-Community einfach voraus. Und das Falten der Wäsche, natürlich so, dass die Socken immer paarweise auftreten.

Und noch während dieser Beitrag (noch ohne Zuhilfenahme generativer KI) entsteht, wird eine weitere Studie veröffentlicht, die der globalen Ökonomie ein Wachstum durch generative KI um zusätzliche 2,6 bis 4,4 Billionen Dollar prognostiziert und schätzt, dass 60 bis 70 Prozent unserer Arbeitsaktivitäten heute bereits durch generative KI und andere Technologien ersetzt werden könnten. Dies insbesondere in den besser bezahlten Berufen, die eine gute Ausbildung voraussetzen. McKinsey schätzt in The economic potential of generative AI: The next productivity frontier, dass die Hälfte der Tätigkeiten zwischen 2030 und 2060 von der generativen KI übernommen werden könnten.

Eventuell sollte die KI doch schon einmal die weißen Laken für uns waschen. Und falten, bitte.

Dr. Aleksandra Sowa gründete und leitete zusammen mit dem deutschen Kryptologen Hans Dobbertin das Horst Görtz Institut für Sicherheit in der Informationstechnik. Sie ist zertifizierter Datenschutzauditor und IT-Compliance-Manager. Aleksandra ist Autorin diverser Bücher und Fachpublikationen. Sie war Mitglied des legendären Virtuellen Ortsvereins (VOV) der SPD, ist Mitglied der Grundwertekommission und trat als Sachverständige für IT-Sicherheit im Innenausschuss des Bundestages auf. Außerdem kennt sie sich bestens mit Science Fiction aus und ist bei Twitter als @Kryptomania84 unterwegs.

Alle Ausgaben ihrer Kolumne für 1E9 findet ihr hier.

Titelbild: Michael Förtsch für 1E9

Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!

Sprich mit Job, dem Bot!

Job, der Bot

War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!

5 „Gefällt mir“