Generell bleibe ich erstmal gelassen, der Weg zur Superintelligenz ist noch lange und wie der Fusionsreaktor wahrscheinlich für immer 20 Jahre in Entfernung. Wichtig ist aber, dass man schon jetzt KI verantwortungsvoll einsetzt. Die genannten Beispiele - Youtube und Amazon Bewerberauswahl - zeigen anschaulich, dass es auch mal schnell nach hinten losgehen kann, wenn man sich als Entwickler der Folgen nicht bewusst ist. Hier hilft uns verstärkt der Ansatz der Explainable AI, der zu einer Entscheidung eines Algorithmus auch die ausschlaggebenden Parameter anzeigt und diese so erklärt. Wichtig bei der ganzen Debatte ist allerdings, dass wir hier global agieren müssen. Es ist schön wenn Europa feste Regeln aufstellt, aber wenn sich sonst niemand dran hält haben wir schnell einen Wettbewerbsnachteil.
Danke für den klasse Artikel, @Wolfgang, der viele Aspekte der aktuelle Diskussion sehr schön sammelt und aufbereitet! Du fragst, ob wir bei dem Thema gelassen sind? Nein, ich keinesfalls! Ich bekomme sogar richtigen „Blutdruck“.
Wir lassen zu, dass mit KI-basierten Diensten (oder Vorentwicklungen) Kapital von Investoren gesammelt wird oder Marktmacht (als Plattform) durch „Sammlung“ von Nutzer(daten) aufgebaut wird. Das sind dann ökonomische Voraussetzungen, um richtig viel Geld zu verdienen (man schaue sich die gigantischen Prognosen an). Diese geschaffenen Fakten sind aufgrund der Beharrungskräfte von einmal eingeschlagenen Pfaden so gut wie irreversibel. Und das alles mit digitalen Diensten, die unausgereift sind, um es mal deutlich zu sagen! Denn zu einem Produkt gehört eben nicht nur seine Kernfunktion, sondern auch Schadensvermeidung bei der Nutzung, Sicherheit, Beitrag zum Gemeinwohl etc. Wir wollen Menschenwürde, Nachhaltigkeit und Fairness? Dabei nutzen wir Services, die uns die Mündigkeit nehmen, über Entscheidungen, die über uns getroffen werden, überhaupt informiert zu sein (von Widerspruch mal ganz zu schweigen), von Services, die Vorurteile reproduzieren und sogar neue hervorbringen etc.? Die „Transaktionskosten“ von Bürger:innen, Nutzer:innen oder Unternehmer:innen etc. um die ethische Qualität einer KI-basierten Anwendung zu prüfen, gehen gegen unendlich. Wenn man es vernünftig betrachtet, können Anwender:innen – weder privat noch B2B - aktuell keine Verantwortung für die Anwendung übernehmen. Das müssten sie aber tun, dann sie speisen ja auch ihre Daten (und die anderer) in die Anwendung und nutzen die Entscheidungen für Leben und Business. Es ist aus meiner Sicht fahrlässig, ihren Einsatz überhaupt zuzulassen. Warum passiert es trotzdem? Aus dem gleichen Grund, weshalb die Emission von Treibhausgasen - trotz Erkenntnisse über die Klimafolgen - jahrzehntelang ungebremst und kaum hinterfragt war. Weil die Folgen „diffus“ sind, weil zu wenige Akteure davon profitieren, dies in Frage zu stellen.
Konsequenterweise dürften wir die KI-basierten Dienste aus diesen Gründen nicht nutzen. Wir haben die Wahl, schreibst Du? Nein, das denke ich nicht. Nicht, wenn wir unserem Grundbedürfnis, Teil einer sozialen Gemeinschaft zu sein, nachkommen wollen. Oder im Job bestimmte digitale Tools an die Hand bekommen oder als Unternehmer:in die Zukunft des Unternehmens sichern wollen.
Die Dynamik der technologischen Entwicklung gepaart mit den globalen Vermarktungsmechanismen führt die Gesetzgebung und unsere gesellschaftlichen Institutionen an ihre Grenzen. Es ist unsere Aufgabe gemeinschaftlich aus diesem Prozess zu lernen und neue wirksame globale (!) Schutzmechanismen für Menschenrechte, Gemeinschaft, Demokratie etc. zu entwicklen. Damit es zukünftig, und auch falls eine Superintelligenz entwickelt wird, besser läuft als bisher.
Ich habe meine Perspektive einmal bewusst zugespitzt. Wie seht ihr das? Übertreibe ich oder sehe die Situation zu negativ?
Noch eine Ergänzung zum Begriff „Künstliche Intelligenz“: Ich versuche in den verwendeten Begriffen nicht zu sehr die Technologie in den Mittelpunkt zu stellen, sondern die Anwendung, wie eben KI-basierte Dienste bzw. Produkte. Oder auch „Automatisierte Entscheidungsfindung“ (Automated Decision Making, ADM), denn genau darum geht es in Unternehmen. Ich finde, dass allein der Begriff schon erdet und für Klarheit sorgt.
Danke Wolfgang für den großartigen Überblick. Ich teile den Gedanken von Horx und Dir: ohne Biologie kein Bewusstsein. Das Naheliegende: Human Enhancement oder Biological Enhancement. Biologie mit Computern und Algorithmen koppeln. Kommen wir dann zu einer „Superintelligenz“? Und was passiert dann - mit uns und mit den Lösungen, die wir erschaffen?
Da wären wir dann doch wieder bei Elon Musk. Der sieht ja die größten Chancen auch darin, wenn wir unsere Gehirne direkt mit KI verbinden. Also noch direkter als per Smartphone. Aber vielleicht braucht es gar kein Menschengehirn dafür:
Die Thematik hätten man nicht besser darstellen können!
In der Tat führt die ganze Debatte über Super Intelligence eher dazu dass Leute gegenüber KI auf eine abstrakte Art und Weise abgeneigt sind. Frag man auf der anderen Seite aber bzgl. eines konkreten Use Cases, z.B. ob man vom Arzt mit höherer Fehlerquote oder von Arzt mit KI mit niedriger Fehlerquote diagnostiziert werden möchte, ist die Antwort viel positiver.
Deswegen sollte man möglichst viel über konkrete Anwendungsfälle reden und deren Nutzen aufzeigen anstatt über die abstrakte KI. Die KI sollte vielmehr im Hintergrund sein und ob das jetzt KI war oder eine nicht intelligente Software war, sollte keinen Unterschied machen. Im Gegenteil ist es eigentlich in vielen Bereichen sogar fahrlässig nicht schneller KI einzusetzen, weil der Mensch aktuell viel zu viele Fehler macht (Verkehrstote, Fehldiagnosen, Biased Kreditentscheidungen).
Wenn es um das Nachbilden jener (kognitiven und emotionalen) Fähigkeiten geht, die mutmaßlich uns Menschen vorbehalten sind, kann schon Misstrauen entstehen. Wie du schreibst, dominiert deswegen auch die Angst vor Kontrollverlust häufig den Diskurs zu KI. Die Sorge: Autonomie von technischen Systemen bei gleichzeitiger Autonomie von Menschen führt zu Konflikten.
Das Faszinierende und gleichzeitige das Problem bei KI ist ja dessen Potenzial, nicht so sehr was entsprechende Systeme heute können. Es ist die Angst oder die Hoffnung einer unbeherrschbaren exponentiellen Skalierung von KI als Technologie.
Das ist auch ein Problem für die KI-Regulierung, die ja das Schadens-Potenzial einschätzen muss, um passende Kriterien für den Einsatz von KI-Systemen festzulegen. Aber auch hier gibt es ja schon einige Überlegungen und Maßnahmen (vgl. Ein Überblick aktueller KI-Regulierung). Die bisherigen Whitepapers zeigen deutlich: Bestehende Regularien greifen bereits ausreichend, wenn auch die Rechtssicherheit gesteigert werden kann.
Der europäische Weg darf dabei nicht darin liegen, erst bei ausreichenden Regularien KI-Systeme zu skalieren. Erst durch die schrittweise Einführung von KI-Systemen werden konkrete Anforderungen an eine etwaige Regulierung ersichtlich. Es kann nur ein inkrementieller Prozess sein.
Diese schrittweise begleitende Einführung von KI-Systemen zeigt sich auch auf technischer Ebene: Derzeit herrscht noch überwachtes Lernen vor, selbstlernend sind diese Systeme also nicht wirklich. Wir müssen also auch die Grenzen von KI-Systeme kennen, um einen verantwortungsvollen Einsatz zu ermöglichen!
Ich habe in der Praxis seit ein paar Jahren, mit so genannten KI Systemen und deren Einsatzgebieten zu tun. Ich glaube speziell wir in Europa machen uns da eine komplett falsche Vorstellung davon, was mit künstlicher Intelligenz (AI) gemeint ist und was man damit real anfangen kann.
Sind wir mal ehrlich, in den 80er Jahren haben wir mühsam Vektorprobleme, mit stochastischen Methoden gelöst. Warum? Wir hatten zu wenig Rechenleistung!
Seit etwa 2012 hat man verstanden, wenn man Vektorrecheneinheiten (Grafikkarten) benutzt, kann man komplexere Probleme schneller lösen. Das hat zu einem Boom derartiger Anwendungen und Lösungen geführt. Warum, weil es eben geht, derartige mathematische Probleme schneller und effizienter zu lösen.
Dadurch und durch neue Sensoren können wir kleinere neuronale Netzwerke nachbilden und damit wiederkehrende Themen sehr effizient und besser lösen als früher. Die Systeme werden besser daher sind komplexere Themen lösbarer geworden.
Damit ist es überhaupt erst möglich autonom zu fahren. Nach Definition Level 5 vollkommen autonom agierende Fahrzeuge sind unter Fachleuten heiß diskutiert laut diesen in ca. 30 - 50 Jahren nutzbar. Vorher braucht das System den Entscheider Mensch um Lösungen zu unterstützen.
Der ultimative Erdbeerpflückroboter funktioniert seit 2019 relativ gut und kann Erdbeeren identifizieren. Soll er etwas anderes pflücken scheitert das System bevor es anfängt zu pflücken an der Erkennung der Frucht.
Spracherkennnung und speziell Schrifterkennnung geht über Algorithmen in Verbindung mit selbstlernenden neuronalen Netzen relativ gut und viel besser als früher. Nur machen wir uns nichts vor es ist immer noch klar erklärbare Mathematik.
Das Erkennen eines Gesichts geht heute im Wesentlichen nur deshalb besser, weil wir in höherer Auflösung und besser Detaillierung in Echtzeit rechnen können.
Alle diese Dinge sind eine bessere Technologie als vorher und sollten als solche gesehen werden. Durch verschiedenste Innovationen hat sich unserer Arbeitswelt seit mindestens 100 Jahren immer schneller verändert und wird es weiter tun. Jetzt gibt es eben bessere Computer mit mehr Rechenleistung, die zu besserern Handlungen fähig werden.
In Bezug auf s.g. künstliche Intelligenz würde ich ab der gleichen geistigen Leistungsstufe mit einem Primaten ansetzen und bis dahin wird sehr viel Zeit vergehen wenn das unter 100 Jahren möglich ist sind wir extrem gut und fortschrittlich gewesen.
Nur zur Erklärung über was wir diskutieren und das ist so weit von einer Superintelligenz weg, wie die Grenze unseres Sonnensystems!
Danke für diesen Satz. Kann ich nur unterstreichen - wir forschen an und arbeiten mit einer Artificial General Intelligence, die menschlicher Intelligenz etwas näher kommt als die klassische AI, und von Superintelligenz weit und breit keine Spur. Da wir uns zwangsweise intensiv mit Neurowissenschaft, Psychologie und Philosophie beschäftigen um unsere Technologie weiterzuentwickeln - vor allem die Trainingsstrategien - kann ich nur sagen: alles in der verlinkten Studie ist reines Kopfkino.
Youtube hat abgesehen vom desaströsen Einsatz von „KI“ bei Bewerbungsprozessen einen großen ökonomischen Erfolg mit dem Empfehlungsalgo der Videoplattform eingefahren. Irgendwann zwischen 2012 und 2016 wurde die „north-star-metric“ erreicht, 1 Milliarde Seherminuten täglich zu erzielen. Und damit die Werbeeinnahmen explodieren zu lassen.
Die Downside darf nun die globale Gesellschaft ausbaden: Millionen Menschen, die einen individuellen Realitätsverlust erlitten weil sie in Verschwörungs-, Weltuntergangs-, und Anitwissenschafts-Blasen verloren gingen. Flatearth ist hier noch die harmloseste Ausprägung, Massenmörder und Trumpismus, Klimaleugnung, Corona-Leugnung, Brexit, AfD, FPÖ, Bolsonaro, Putin und generelle Demokratiezersetzung fordern massenhaft Menschenleben und die zerstörung der ökologischen Lebensgrundlagen.
Google bzw. Alphabet gehört meiner Meinung nach vor dem int. Menschrechtsgerichtshof angeklagt und zur Verantwortung gezogen. Just my 2 eurocents.
Guten Morgen, in den Kommentaren, besonders in dem letzten Satz von gh1, wird die Dimension des Risikos deutlich!
Als ich vor der Jahrtausendwende vom „Internet als der größten Atombombe aller Zeiten“ sprach, war ich mir meiner Falscheinschätzung nicht bewusst, die ausgelöste Katastrophe ist noch viel schlimmer!
Sieht man sich die Bilder der Zerstörung der japanischen Städte an, und stellt sich vor, das aktuell über 10.ooo solcher Bomben weltweit existieren sollen! und überlegt dann den Nutzen einiger AKWs zur Energiegewinnung mit ihrem gefürchteten Risiko, werden die Verhältnismäßigkeiten deutlich!
Der Gefahr, das uns Konkurenten durch noch bessere Computer überflügeln können, mit einer noch größeren Gefahr entgegenzutreten, ist der Wettlauf der Menschheit untereinander!
Das wir Menschen als Menschheit auf den Wert von Waldameisen reduziert werden, falls wir überleben, will aber keinem Forscher, oder Entwickler bewusst sein!
Wir schaufeln unser eigenes Grab - allerdings nicht mit Hacke und Schaufel, sondern mit den Baggern aus dem Braunkohletageabbau!
Das das Internet seit den 1990er Jahren für gravierend schnelleren Informatiosaustausch positiver weise gesorgt hat, ist nicht zu bezweifeln. Aber man MUSS auch die damit erst möglichen Verwerfungen, Schäden an Erde und Menschheit akzeptieren! Und man MUSS nicht den Vorteil einer „optimalen medizinischen Diagnose“ als Vorteil der Menschheit darstellen, wenn nur einzelene den Vorteil nutzen können.
Vergleichbar wäre, wenn der Bundeskanzler/in/s demnächst im Privatjet zum Mond reisen könnte und alle dafür auf Auto und Motorrad verzichten müssen!
Denn, sind wir uns darüber im Klaren: es gibt schon jetzt eine ganz brutale drei-Klassen-Medizin! Die für besondere Privat-Patienten, die für Normale Patienten und die für Menschen ohne Versorgungssystem!
Da wird in der aktuellen Pandemie die medizinische Versorgung eines Erdteils wie Afrika als wirtschaftlich nicht relevant eingestuft! Mit Sicherheit wird auch Afrika irgendwann geimpft werden, aber nicht aus Menschlichkeitsgründen, sondern wegen der Bodenschätze, die Nichtafrikaner gerne hätten.
Diese -unmenschliche- Betrachtungsweise, jetzt schon durch Menschen getätigt, lässt doch auf die maschinelle Betrachtungsweise Schlüsse zu. Den Optimismus, das Maschinen mit KI gesteuert, da menschlicher ageren, kann ich nicht teilen.
Aber glücklicherweise bin ich alt genug, das ich keine Angst vorm Sterben hab.
Ich glaube eher das man sich die Entwicklung in der Dynamik und Leistungsfähigkeit grundsätzlich ansehen sollte und nicht in der Momentaufnahme. Diagnosen per Daten und KI werden günstiger und besser und schneller möglich als Menschen das je tun könnten. Dass wir jetzt zum Teil nur an Forschungsinstituten und Kliniken über neue Technologie verfügen ist normal. Wir haben es als Gesellschaft und Politik in der Hand den Rahmen Sinus setzen dass viele möglichst profitieren.
Über Zeit jedenfalls werden diese verfahren quasi zur „Commodity“, und allgemein verfügbar zu sehr geringen Kosten. Nur so wird man das verkorkste Gesundheitssystem vielleicht grundlegend und positiv ändern.
Man kann natürlich, weil Technik grundsätzlich wertfrei ist, auch negativ kategorisieren und worst case Szenarien in den Vordergrund stellen. Was man damit macht und wie man die KI Welt sieht ist größtenteils Einstellungssache. So könnte man statt den Tod zu fürchten auch überlegen wie so eine Kraft auch zur Bekämpfung der Klimaveränderungen / globalen Ungleichheiten etc genutzt werden könnte …
Die Frage der Verantwortung ist hier tatsächlich sehr interessant. Die Algorithmen haben ja im Prinzip gelernt was besonders gut das Interesse des Publikums weckt und das waren eben krude Verschwörungstheorien etc. Wenn Leute sich nicht besonders für solche Dinge sondern für z.B. Politik interessieren würden, würde der Algorithmus dementsprechend auch so etwas vorschlagen. Kann man also Google etc. dafür verantwortlich machen, dass sich Leute mehr für „Quatsch“ interessieren? Haben die großen Tech-Konzerne sozusagen einen „Bildungsauftrag“ oder müssten so reguliert werden, dass sie die Empfehlungen weg von den Interessen des Publikums lenken? Auch das denke ich ist gefährlich, da man sich damit an den Grenzen der aktiven Meinungslenkung bewegt. Es ist eine sehr schwierige Frage und ich habe auch keine perfekte Antwort, aber meiner Meinung nach hilft gegen Verschwörungstheorien bessere Bildung und sozialer Ausgleich mehr als die Beschränkung von Tech-Konzernen.
Dem ist nicht zu widersprechen! Aber
a) wieviel gesunde Menschen haben einen Nutzen?
und
b) am Beispiel von Kern-Spin-Tomografen erklärt:
wie häufig haben Menschen die Chance, bedürftig in die Nähe solcher Maschinen zu kommen?
schon jetzt sind diese Geräte mit Wartezeiten von min 5-6 Wochen ausgelastet und
umgekehrt unterliegen diese Maschinen einer Wirtschaftlichkeit, was die Zahl der möglichen Patienten/Lebenszyklus der Maschine betrifft, was wiederum den Preis für eine Untersuchung steuert. Wollen wir jetzt solche Geräte für JEDERMANN verfügbar machen, hätten wir keine Zeit mehr, für andere Aufgaben zu arbeiten. Auch Arbeitssteilung löst das Mangelproblem, das wir Menschen nur 24 Stunden/Tag zur Verfügeung haben, NICHT!!!
und
c) wenn die Menschheit jetzt dem Irrglauben verfällt, das Maschinen mit KI das Bedürfnis entwickeln, uns Menschen wie Haustiere liebevoll zu umsorgen, sollte sich den Umgang der Schöpfer solcher Maschinen mit der Natur ansehen -
Ich glaube das ist nur ein Beispiel von sehr vielen.
Zunächst sollten Daten anonymisiert zur Verfügung gestellt werden damit es keine Silos gibt bzw. die Zugänglichkeit und Innovation für den Menschen arbeitet.
Auf Geräteseite tut sich extrem viel in vielen Bereichen. Angefangen bei Verfügbarkeit von Genom sequencing für jeden, bis zum Proteom als neue Bastian die fallen wird. Eine Vielzahl an biomarkern wird messbar und Trackballs. Über den Puls und Blutdruck hinaus. 3d Scans des Körpers von aufenhintergrund werden sogar per Consumer device in dieser Dekade möglich. Dann wird zB die Vielzahl der Menschen die altersblind werden über Netzhautsegeneration evtl nicht mehr blind weil sie den krankheitsprozess früher per App sogar und zu low cost erkennen.
Einmal in der Woche zu Hause ein Tropfen Blut scannen und schon weiß man über hunderte Proteine sehr gut Bescheid was gerade im Körper passiert.
Diese korrelationen und Signaturen zu erkennen und hochindundividuell sogar im Alltag verfügbar zu haben ist die Zukunft die Technologie schon heute abzeichnet.
Das alles hat noch nichts mit super KI und Terminator zu tun sondern mit sehr „dummen“ mustererkennern. Und natürlich einem Geschäftsmodell das den Menschen und die Gesundheit im Vordergrund sieht.
Aus meiner wartetest die größte Gefahr nicht die Technologie sondern die Menschen, ihre Gier, und Geschäftsmodell die konstluche Mauern hochziehen, um Verfügbarkeit knapp zingelten und Preise hochzuhalten.
Lieber Wolfgang, zu deiner Bemerkung zur Black Box!
Ein wirklich super Artikel und wie die Postings zeigen, gehen die Überlegungen in diesem Forum, alle in deine Richtung. Was hier aber bisher hier nicht diskutiert wurde ist der Hinweis auf die „Black Box“ die in selbstlernenden Systemen entsteht. Weil hier ähnlich wie im Behaviorismus in Reiz - Reaktionsmustern gedacht wird und wir eigentlich die Beurteilungskriterien der durch die Maschinen erkannten Mustern nicht wissen und damit nicht schlüssig nachvollziehen können, wie die „KI“ zu ihrem Ergebnis kommt.
Dies Black Box zu erforschen wäre doch gerade die Herausforderung unserer Zeit! Hier bietet sich die Möglichkeit, vielleicht grundlegende Denkfehler, neue Sichtweisen oder der Einfluss der menschlichen Verhaltens auf den Erkenntnisgewinn zu verstehen etc. ! Hier tut sich ein riesiges Forschungsfeld auf. Denn es bietet möglicherweise einen etwas anderen als einen rein menschlichen Blick auf unsere Realität.
Was aber für mich nicht heißt, dass der menschliche Blick ausgeschaltet werden soll, ganz im Gegenteil kann er dadurch geschärft werden.
Maschinen bzw. eine künstliche Intelligenzen zu bauen die dem Menschen weit überlegen sind, entspringt nach meiner eigenen Beurteilung tiefenpsychologisch gesehen Allmachtsgefühlen, Hass und Revanche(Rache)fantasien im Sinne einer Superheroprojektion.
Maschinen zu bauen die uns nicht (wirklich !) dienlich sind und Menschen zerstören kennen wir aus dem militärischen Bereich zur Genüge und genau deshalb sehe ich in unsere Selbstverantwortung, die du hier zu meiner großen Freude in die Diskussion einbringst, ein ganz wichtige Komponente in dieser Diskussion.
Aber um nochmals darauf zurück zu kommen, die Erforschung der „Black Box“ ist für mich eine der vordringlichsten Herausforderung, wenn wir von Systemen sprechen die unserer menschlichen Denkkapazitäten unterstützen sollen.
Denn von einer Superintelligenz sind wir weit weg. Hier würden dann auch die Frage auftauchen, welche Funktionen hat das Unbewusste, das Vergessen. Wenn wir heute die neuen wissenschaftlichen Erkenntnisse zu Autismus betrachten, lauten diese: Autismus entsteht nicht aus einem Mangel oder Unvermögen von Reizverarbeitung sondern aus einer Überflutung von Reizen aus einem Mangel an selektiver Reizaufnahme, Verdrängung und Vergessen, daher möglicherweise auch die besonderen Sonderbegabungen von autistischen Menschen.
Das heißt, Superintelligenz wie wir sie heute fantasieren, wären auch super autistisch!
Also auf, an die Erforschung der Black Box!
Liebe Grüße an die vielen engagierten Menschen auf dieser Plattform
Mit all den negativen Aspekten, die KI Applikationen heute mit sich bringen, glaube ich, dass wir genau durch diese Mängel neue Perspektiven auf uns selbst gewinnen und Tatsachen als solche sehen können, die uns sonst verborgen gleiben.
Unabhängig vom Black-Box Problem werden KIs ( neuronal netze) mit sehr vielen Daten gefüttert. Dass hierbei nun ein bias rauskommt verwundert nicht. Konzentriert jedoch in die KI werden diese Biases die ohnehin faktisch in der Gesellschaft vorliegen nur über das „KI Ding“ deutlich.
Wir können Brustkrebs bei weissen Frauen besser erkennen als bei schwarzen Frauen. Weisse werden per KI eher eingestellt als Schwarze, Bias in der Gesichtserkennung führt zu fehlerhaften Rechtsschritten… etc etc.
Diese Ungleichheit gibt es faktisch. Das zeigen Daten at scale. Nur können wir diese Breite an Daten nicht einfach erfassen. Eine KI jedoch schon. Sie ist Produkt dieser breiten und verfügbaren Daten. Und zeigt uns direkt die Probleme, die wir angehen sollten auf.
Das erzwingt also Handlung. Nicht aus Angst eine biased Fähigkeit die, wenn auch erst nur für eine Minderheit, besser ist, tot zu regulieren. Sonder schnellstmöglich dafür Sorge zu tragen, dass ein solche Bias nicht mehr vorhanden ist.
Damit werden Handlungsstränge auch sehr konkret. Und Verantwortungsvoller Umgang beginnt dann im Hier und Jetzt und wie wir die nächsten Schritte gestalten und nicht unbedingt in der Angst und dem sich Verschließen gegenüber dessen was heute halt gerade machbar ist.
Dass wir uns mit der momentanen Entwicklung auseinandersetzen müssen ist klar. Ich denke aus meinen Ausführungen geht klar hervor, dass eine KI von programmiert wird und daher auch menschliche Eigenschaften und Vorurteile in Programmprämissen, Designs und Vorstellungen mit einfließen. Ich bin mir sicher, dass sie sich auch in Algorithmen der „Black Box“ zu finden sind.
Die Debatte ist im Arsch und wird missbraucht, um der Tech- und Rüstungsindustrie immer mehr Fördergelder zuzuspielen
Ein sehr guter Überblick über die Thematik der ethischen KI, der vor allem eine Gefühl hinterlässt: irgendetwas stimmt da nicht. Das wirkt wie eine inszenierte Debatte. Für die ein Seite, die Optimisten, ist die KI die Lösung vieler Probleme, die einfach nur etwas besser betreut werden muss, um technische Bugs auszuschließen (wozu dann auch Diskriminierung gezählt wird). Für das andere Lager, die Pessimisten, ist die KI eine Terminator-Dystopie, für die wir intensiv vorkehren müssen, um nicht alle gekillt zu werden. Das gemeinsame des „optimistischen“ und des „pessimistischen“ Szenarios ist, das eigentlich beide optimistisch davon ausgehen, dass KI trotz aller Bedenken immer stärker eingesetzt werden müsse und wir da schon irgendwie eine Lösung finden. Die einen wollen irgendwie ethische Standards im Code hartverdrahten. Die anderen wollen zusätzliche Software entwickeln, die KI-Software kontrolliert oder zumindest erklärt. Auf jeden Fall wird es eine technische Lösung geben.
If your only tool is a hammer, everything looks like a nail
Mag sein, dass die Ingenieure und Forscher tatsächlich an den technischen Lösungsansatz glauben - und vielleicht gibt es den ja auch -, aber für mich ist das alles Bockmist-Gelaber der Techfirmen und Verteidigungsministerien, um zusätzliche Fördergelder zur Aufrüstung der technischen KI-Personal- und Infrastrukturressourcen zu bekommen. Man ignoriert total das Grunddilemma, dass KI erstens per Definition zu kompliziert ist, um sie als Mensch nachzuvollziehen und wir sie für genau diesen Zweck und genau so erschaffen haben. Aber vor allem ist die Bestimmung ethischer Standards ein menschliches und gesellschaftliches Thema. Was ethisch OK ist oder nicht, kann nur im Austausch mit den von der KI betroffenen erarbeitet werden und solche Diskussionen erfordern Kommunikationsprozesse und soziale Kompetenz. Da versteht man jeden Tech-CEO, der lieber nach einer technischen Lösung oder einem Prüfsiegel sucht.
Warum man so gerne von der KI spricht
Für die Inszenierung dieser Scheindebatte ist die Begrifflichkeit auch sehr hilfreich. Als ich 2010 noch an der RWTH Aachen geforscht habe, fing man gerade davon an über KI zu sprechen. Bis dahin sprach man nur von Big Data Analysis. Für mich persönlich zeigt sich im Wechsel von Big Data Analysis zu KI auch sprachlich die Flucht vor der Verantwortung der Ingenieure oder Entwickler. Es macht einen Unterschied, ob ich selbst als handelndes Subjekt Daten analysiere, um Entscheidungen zu treffen, oder ob ich eine KI dabei begleite, wie sie Entscheidungen trifft. Im ersten Fall ist man selbst der Bösewicht, im zweiten Fall rettet man die Welt vor dem künstlich intelligenten Bösewicht - wer möchte da lieber nicht als Held angesehen werden?
Langer Rede kurzer Sinn:
Wenn die Tech-Industrie ehrlich Angst vor der Superintelligenz hat, sollen die den Quatsch doch einfach lassen.
Das finde ich absolut richtig. Und dann auch erstaunlich, dass ich von solchen Bemühungen wenig bis gar nichts weiss.
Hatte kürzlich ein Gespräch mit einem Mediziner / Entwickler und Ethiker. Vermutlich eine seltene Mischung. Dabei fand ich interessant, dass man den betroffenen Patienten selten in den Mittelpunkt stellt und mitdiskutieren lässt. Er ist ein abstraktes Etwas im Kontext einer Diskussion.
Ich denke grundsätzlich dreht sich jeder in Diskussionen um den Punkt der im Zentrum der Gruppierung ist in der er sich bewegt. Tech-Unternehmen um Tech, Krieger um strategische Vorteile im Konflikt, Ethiker stehen gerne auf einem hohen Stand und blicken um sich, Anwenderunternehmen sehen die Kosten / Topline.
Wie könnte ein anderer Diskurs und bessere Kommunikation aussehen um hierbei echten Fortschritt zu erzielen?
Zu der Thematik eine kleine Anmerkung aus der Praxis von einem Ingenieur:
Kürzlich kam unser Chef auf mich zu, wir müssten jetzt unbedingt „etwas mit 5G machen“. Begründung: vor 2, 3 Jahren war die Konzernleitung hier und habe sich unzufrieden gezeigt, dass man damals den KI-Trend verschlafen habe… Das dürfe jetzt mit 5G nicht wieder passieren…
Will damit sagen, dass ich es in meiner Laufbahn immer wieder erlebt habe, dass gerade „eine neue Sau durch’s Dorf getrieben“ wurde und man da halt einfach dabei sein muss. Auch wenn das Management nur den ersten Abschnitt des Summary gelesen hat und nur eine grobe Ahnung von der Technologie hat. Auch wenn die Fachleute darin wenig Sinn sehen. Auch wenn der angedachte Use Case nicht wirklich gut damit bearbeitet werden kann. Und so weiter…
Manchmal geht es halt einfach nur darum, bei einem Hype dabei zu sein - ob technisch und wirtschaftlich sinnvoll oder nicht.