Guten Morgen, in den Kommentaren, besonders in dem letzten Satz von gh1, wird die Dimension des Risikos deutlich!
Als ich vor der Jahrtausendwende vom „Internet als der größten Atombombe aller Zeiten“ sprach, war ich mir meiner Falscheinschätzung nicht bewusst, die ausgelöste Katastrophe ist noch viel schlimmer!
Sieht man sich die Bilder der Zerstörung der japanischen Städte an, und stellt sich vor, das aktuell über 10.ooo solcher Bomben weltweit existieren sollen! und überlegt dann den Nutzen einiger AKWs zur Energiegewinnung mit ihrem gefürchteten Risiko, werden die Verhältnismäßigkeiten deutlich!
Der Gefahr, das uns Konkurenten durch noch bessere Computer überflügeln können, mit einer noch größeren Gefahr entgegenzutreten, ist der Wettlauf der Menschheit untereinander!
Das wir Menschen als Menschheit auf den Wert von Waldameisen reduziert werden, falls wir überleben, will aber keinem Forscher, oder Entwickler bewusst sein!
Wir schaufeln unser eigenes Grab - allerdings nicht mit Hacke und Schaufel, sondern mit den Baggern aus dem Braunkohletageabbau!
Das das Internet seit den 1990er Jahren für gravierend schnelleren Informatiosaustausch positiver weise gesorgt hat, ist nicht zu bezweifeln. Aber man MUSS auch die damit erst möglichen Verwerfungen, Schäden an Erde und Menschheit akzeptieren! Und man MUSS nicht den Vorteil einer „optimalen medizinischen Diagnose“ als Vorteil der Menschheit darstellen, wenn nur einzelene den Vorteil nutzen können.
Vergleichbar wäre, wenn der Bundeskanzler/in/s demnächst im Privatjet zum Mond reisen könnte und alle dafür auf Auto und Motorrad verzichten müssen!
Denn, sind wir uns darüber im Klaren: es gibt schon jetzt eine ganz brutale drei-Klassen-Medizin! Die für besondere Privat-Patienten, die für Normale Patienten und die für Menschen ohne Versorgungssystem!
Da wird in der aktuellen Pandemie die medizinische Versorgung eines Erdteils wie Afrika als wirtschaftlich nicht relevant eingestuft! Mit Sicherheit wird auch Afrika irgendwann geimpft werden, aber nicht aus Menschlichkeitsgründen, sondern wegen der Bodenschätze, die Nichtafrikaner gerne hätten.
Diese -unmenschliche- Betrachtungsweise, jetzt schon durch Menschen getätigt, lässt doch auf die maschinelle Betrachtungsweise Schlüsse zu. Den Optimismus, das Maschinen mit KI gesteuert, da menschlicher ageren, kann ich nicht teilen.
Aber glücklicherweise bin ich alt genug, das ich keine Angst vorm Sterben hab.
Ich glaube eher das man sich die Entwicklung in der Dynamik und Leistungsfähigkeit grundsätzlich ansehen sollte und nicht in der Momentaufnahme. Diagnosen per Daten und KI werden günstiger und besser und schneller möglich als Menschen das je tun könnten. Dass wir jetzt zum Teil nur an Forschungsinstituten und Kliniken über neue Technologie verfügen ist normal. Wir haben es als Gesellschaft und Politik in der Hand den Rahmen Sinus setzen dass viele möglichst profitieren.
Über Zeit jedenfalls werden diese verfahren quasi zur „Commodity“, und allgemein verfügbar zu sehr geringen Kosten. Nur so wird man das verkorkste Gesundheitssystem vielleicht grundlegend und positiv ändern.
Man kann natürlich, weil Technik grundsätzlich wertfrei ist, auch negativ kategorisieren und worst case Szenarien in den Vordergrund stellen. Was man damit macht und wie man die KI Welt sieht ist größtenteils Einstellungssache. So könnte man statt den Tod zu fürchten auch überlegen wie so eine Kraft auch zur Bekämpfung der Klimaveränderungen / globalen Ungleichheiten etc genutzt werden könnte …
Die Frage der Verantwortung ist hier tatsächlich sehr interessant. Die Algorithmen haben ja im Prinzip gelernt was besonders gut das Interesse des Publikums weckt und das waren eben krude Verschwörungstheorien etc. Wenn Leute sich nicht besonders für solche Dinge sondern für z.B. Politik interessieren würden, würde der Algorithmus dementsprechend auch so etwas vorschlagen. Kann man also Google etc. dafür verantwortlich machen, dass sich Leute mehr für „Quatsch“ interessieren? Haben die großen Tech-Konzerne sozusagen einen „Bildungsauftrag“ oder müssten so reguliert werden, dass sie die Empfehlungen weg von den Interessen des Publikums lenken? Auch das denke ich ist gefährlich, da man sich damit an den Grenzen der aktiven Meinungslenkung bewegt. Es ist eine sehr schwierige Frage und ich habe auch keine perfekte Antwort, aber meiner Meinung nach hilft gegen Verschwörungstheorien bessere Bildung und sozialer Ausgleich mehr als die Beschränkung von Tech-Konzernen.
Dem ist nicht zu widersprechen! Aber
a) wieviel gesunde Menschen haben einen Nutzen?
und
b) am Beispiel von Kern-Spin-Tomografen erklärt:
wie häufig haben Menschen die Chance, bedürftig in die Nähe solcher Maschinen zu kommen?
schon jetzt sind diese Geräte mit Wartezeiten von min 5-6 Wochen ausgelastet und
umgekehrt unterliegen diese Maschinen einer Wirtschaftlichkeit, was die Zahl der möglichen Patienten/Lebenszyklus der Maschine betrifft, was wiederum den Preis für eine Untersuchung steuert. Wollen wir jetzt solche Geräte für JEDERMANN verfügbar machen, hätten wir keine Zeit mehr, für andere Aufgaben zu arbeiten. Auch Arbeitssteilung löst das Mangelproblem, das wir Menschen nur 24 Stunden/Tag zur Verfügeung haben, NICHT!!!
und
c) wenn die Menschheit jetzt dem Irrglauben verfällt, das Maschinen mit KI das Bedürfnis entwickeln, uns Menschen wie Haustiere liebevoll zu umsorgen, sollte sich den Umgang der Schöpfer solcher Maschinen mit der Natur ansehen -
Ich glaube das ist nur ein Beispiel von sehr vielen.
Zunächst sollten Daten anonymisiert zur Verfügung gestellt werden damit es keine Silos gibt bzw. die Zugänglichkeit und Innovation für den Menschen arbeitet.
Auf Geräteseite tut sich extrem viel in vielen Bereichen. Angefangen bei Verfügbarkeit von Genom sequencing für jeden, bis zum Proteom als neue Bastian die fallen wird. Eine Vielzahl an biomarkern wird messbar und Trackballs. Über den Puls und Blutdruck hinaus. 3d Scans des Körpers von aufenhintergrund werden sogar per Consumer device in dieser Dekade möglich. Dann wird zB die Vielzahl der Menschen die altersblind werden über Netzhautsegeneration evtl nicht mehr blind weil sie den krankheitsprozess früher per App sogar und zu low cost erkennen.
Einmal in der Woche zu Hause ein Tropfen Blut scannen und schon weiß man über hunderte Proteine sehr gut Bescheid was gerade im Körper passiert.
Diese korrelationen und Signaturen zu erkennen und hochindundividuell sogar im Alltag verfügbar zu haben ist die Zukunft die Technologie schon heute abzeichnet.
Das alles hat noch nichts mit super KI und Terminator zu tun sondern mit sehr „dummen“ mustererkennern. Und natürlich einem Geschäftsmodell das den Menschen und die Gesundheit im Vordergrund sieht.
Aus meiner wartetest die größte Gefahr nicht die Technologie sondern die Menschen, ihre Gier, und Geschäftsmodell die konstluche Mauern hochziehen, um Verfügbarkeit knapp zingelten und Preise hochzuhalten.
Lieber Wolfgang, zu deiner Bemerkung zur Black Box!
Ein wirklich super Artikel und wie die Postings zeigen, gehen die Überlegungen in diesem Forum, alle in deine Richtung. Was hier aber bisher hier nicht diskutiert wurde ist der Hinweis auf die „Black Box“ die in selbstlernenden Systemen entsteht. Weil hier ähnlich wie im Behaviorismus in Reiz - Reaktionsmustern gedacht wird und wir eigentlich die Beurteilungskriterien der durch die Maschinen erkannten Mustern nicht wissen und damit nicht schlüssig nachvollziehen können, wie die „KI“ zu ihrem Ergebnis kommt.
Dies Black Box zu erforschen wäre doch gerade die Herausforderung unserer Zeit! Hier bietet sich die Möglichkeit, vielleicht grundlegende Denkfehler, neue Sichtweisen oder der Einfluss der menschlichen Verhaltens auf den Erkenntnisgewinn zu verstehen etc. ! Hier tut sich ein riesiges Forschungsfeld auf. Denn es bietet möglicherweise einen etwas anderen als einen rein menschlichen Blick auf unsere Realität.
Was aber für mich nicht heißt, dass der menschliche Blick ausgeschaltet werden soll, ganz im Gegenteil kann er dadurch geschärft werden.
Maschinen bzw. eine künstliche Intelligenzen zu bauen die dem Menschen weit überlegen sind, entspringt nach meiner eigenen Beurteilung tiefenpsychologisch gesehen Allmachtsgefühlen, Hass und Revanche(Rache)fantasien im Sinne einer Superheroprojektion.
Maschinen zu bauen die uns nicht (wirklich !) dienlich sind und Menschen zerstören kennen wir aus dem militärischen Bereich zur Genüge und genau deshalb sehe ich in unsere Selbstverantwortung, die du hier zu meiner großen Freude in die Diskussion einbringst, ein ganz wichtige Komponente in dieser Diskussion.
Aber um nochmals darauf zurück zu kommen, die Erforschung der „Black Box“ ist für mich eine der vordringlichsten Herausforderung, wenn wir von Systemen sprechen die unserer menschlichen Denkkapazitäten unterstützen sollen.
Denn von einer Superintelligenz sind wir weit weg. Hier würden dann auch die Frage auftauchen, welche Funktionen hat das Unbewusste, das Vergessen. Wenn wir heute die neuen wissenschaftlichen Erkenntnisse zu Autismus betrachten, lauten diese: Autismus entsteht nicht aus einem Mangel oder Unvermögen von Reizverarbeitung sondern aus einer Überflutung von Reizen aus einem Mangel an selektiver Reizaufnahme, Verdrängung und Vergessen, daher möglicherweise auch die besonderen Sonderbegabungen von autistischen Menschen.
Das heißt, Superintelligenz wie wir sie heute fantasieren, wären auch super autistisch!
Also auf, an die Erforschung der Black Box!
Liebe Grüße an die vielen engagierten Menschen auf dieser Plattform
Mit all den negativen Aspekten, die KI Applikationen heute mit sich bringen, glaube ich, dass wir genau durch diese Mängel neue Perspektiven auf uns selbst gewinnen und Tatsachen als solche sehen können, die uns sonst verborgen gleiben.
Unabhängig vom Black-Box Problem werden KIs ( neuronal netze) mit sehr vielen Daten gefüttert. Dass hierbei nun ein bias rauskommt verwundert nicht. Konzentriert jedoch in die KI werden diese Biases die ohnehin faktisch in der Gesellschaft vorliegen nur über das „KI Ding“ deutlich.
Wir können Brustkrebs bei weissen Frauen besser erkennen als bei schwarzen Frauen. Weisse werden per KI eher eingestellt als Schwarze, Bias in der Gesichtserkennung führt zu fehlerhaften Rechtsschritten… etc etc.
Diese Ungleichheit gibt es faktisch. Das zeigen Daten at scale. Nur können wir diese Breite an Daten nicht einfach erfassen. Eine KI jedoch schon. Sie ist Produkt dieser breiten und verfügbaren Daten. Und zeigt uns direkt die Probleme, die wir angehen sollten auf.
Das erzwingt also Handlung. Nicht aus Angst eine biased Fähigkeit die, wenn auch erst nur für eine Minderheit, besser ist, tot zu regulieren. Sonder schnellstmöglich dafür Sorge zu tragen, dass ein solche Bias nicht mehr vorhanden ist.
Damit werden Handlungsstränge auch sehr konkret. Und Verantwortungsvoller Umgang beginnt dann im Hier und Jetzt und wie wir die nächsten Schritte gestalten und nicht unbedingt in der Angst und dem sich Verschließen gegenüber dessen was heute halt gerade machbar ist.
Dass wir uns mit der momentanen Entwicklung auseinandersetzen müssen ist klar. Ich denke aus meinen Ausführungen geht klar hervor, dass eine KI von programmiert wird und daher auch menschliche Eigenschaften und Vorurteile in Programmprämissen, Designs und Vorstellungen mit einfließen. Ich bin mir sicher, dass sie sich auch in Algorithmen der „Black Box“ zu finden sind.
Die Debatte ist im Arsch und wird missbraucht, um der Tech- und Rüstungsindustrie immer mehr Fördergelder zuzuspielen
Ein sehr guter Überblick über die Thematik der ethischen KI, der vor allem eine Gefühl hinterlässt: irgendetwas stimmt da nicht. Das wirkt wie eine inszenierte Debatte. Für die ein Seite, die Optimisten, ist die KI die Lösung vieler Probleme, die einfach nur etwas besser betreut werden muss, um technische Bugs auszuschließen (wozu dann auch Diskriminierung gezählt wird). Für das andere Lager, die Pessimisten, ist die KI eine Terminator-Dystopie, für die wir intensiv vorkehren müssen, um nicht alle gekillt zu werden. Das gemeinsame des „optimistischen“ und des „pessimistischen“ Szenarios ist, das eigentlich beide optimistisch davon ausgehen, dass KI trotz aller Bedenken immer stärker eingesetzt werden müsse und wir da schon irgendwie eine Lösung finden. Die einen wollen irgendwie ethische Standards im Code hartverdrahten. Die anderen wollen zusätzliche Software entwickeln, die KI-Software kontrolliert oder zumindest erklärt. Auf jeden Fall wird es eine technische Lösung geben.
If your only tool is a hammer, everything looks like a nail
Mag sein, dass die Ingenieure und Forscher tatsächlich an den technischen Lösungsansatz glauben - und vielleicht gibt es den ja auch -, aber für mich ist das alles Bockmist-Gelaber der Techfirmen und Verteidigungsministerien, um zusätzliche Fördergelder zur Aufrüstung der technischen KI-Personal- und Infrastrukturressourcen zu bekommen. Man ignoriert total das Grunddilemma, dass KI erstens per Definition zu kompliziert ist, um sie als Mensch nachzuvollziehen und wir sie für genau diesen Zweck und genau so erschaffen haben. Aber vor allem ist die Bestimmung ethischer Standards ein menschliches und gesellschaftliches Thema. Was ethisch OK ist oder nicht, kann nur im Austausch mit den von der KI betroffenen erarbeitet werden und solche Diskussionen erfordern Kommunikationsprozesse und soziale Kompetenz. Da versteht man jeden Tech-CEO, der lieber nach einer technischen Lösung oder einem Prüfsiegel sucht.
Warum man so gerne von der KI spricht
Für die Inszenierung dieser Scheindebatte ist die Begrifflichkeit auch sehr hilfreich. Als ich 2010 noch an der RWTH Aachen geforscht habe, fing man gerade davon an über KI zu sprechen. Bis dahin sprach man nur von Big Data Analysis. Für mich persönlich zeigt sich im Wechsel von Big Data Analysis zu KI auch sprachlich die Flucht vor der Verantwortung der Ingenieure oder Entwickler. Es macht einen Unterschied, ob ich selbst als handelndes Subjekt Daten analysiere, um Entscheidungen zu treffen, oder ob ich eine KI dabei begleite, wie sie Entscheidungen trifft. Im ersten Fall ist man selbst der Bösewicht, im zweiten Fall rettet man die Welt vor dem künstlich intelligenten Bösewicht - wer möchte da lieber nicht als Held angesehen werden?
Langer Rede kurzer Sinn:
Wenn die Tech-Industrie ehrlich Angst vor der Superintelligenz hat, sollen die den Quatsch doch einfach lassen.
Das finde ich absolut richtig. Und dann auch erstaunlich, dass ich von solchen Bemühungen wenig bis gar nichts weiss.
Hatte kürzlich ein Gespräch mit einem Mediziner / Entwickler und Ethiker. Vermutlich eine seltene Mischung. Dabei fand ich interessant, dass man den betroffenen Patienten selten in den Mittelpunkt stellt und mitdiskutieren lässt. Er ist ein abstraktes Etwas im Kontext einer Diskussion.
Ich denke grundsätzlich dreht sich jeder in Diskussionen um den Punkt der im Zentrum der Gruppierung ist in der er sich bewegt. Tech-Unternehmen um Tech, Krieger um strategische Vorteile im Konflikt, Ethiker stehen gerne auf einem hohen Stand und blicken um sich, Anwenderunternehmen sehen die Kosten / Topline.
Wie könnte ein anderer Diskurs und bessere Kommunikation aussehen um hierbei echten Fortschritt zu erzielen?
Zu der Thematik eine kleine Anmerkung aus der Praxis von einem Ingenieur:
Kürzlich kam unser Chef auf mich zu, wir müssten jetzt unbedingt „etwas mit 5G machen“. Begründung: vor 2, 3 Jahren war die Konzernleitung hier und habe sich unzufrieden gezeigt, dass man damals den KI-Trend verschlafen habe… Das dürfe jetzt mit 5G nicht wieder passieren…
Will damit sagen, dass ich es in meiner Laufbahn immer wieder erlebt habe, dass gerade „eine neue Sau durch’s Dorf getrieben“ wurde und man da halt einfach dabei sein muss. Auch wenn das Management nur den ersten Abschnitt des Summary gelesen hat und nur eine grobe Ahnung von der Technologie hat. Auch wenn die Fachleute darin wenig Sinn sehen. Auch wenn der angedachte Use Case nicht wirklich gut damit bearbeitet werden kann. Und so weiter…
Manchmal geht es halt einfach nur darum, bei einem Hype dabei zu sein - ob technisch und wirtschaftlich sinnvoll oder nicht.
Schade. Dabei wird maximal nach außen gezeigt, dass man dabei ist - innovationstheater.
Dabei sollte man sich einfach nur fragen wie man das Produkt besser für den Kunden und die aktuellen Bedürfnisse der Zeit macht. Seltsam. Es wird über diesen Kern einer Unternehmung nicht oft gesprochen aber über alles andere
Vielen Dank für eure wertvollen Ergänzungen und Meinungen @Saskia @gh1 @lucas @juliaschneider @SamS @alfred.masal @Ralph @Eberhard @uwo111 @0x78!
Ich teile deine Kritik an der jetzigen Situation! Aber noch sehe ich eine Chance, dass wir die Pfadabhängigkeit bzw. Irreversibilität, die du ansprichst, vermeiden könnten. Gerade bei digitalen Plattformen können sich Nutzungsmuster schnell verändern – wenn erst Angebote kommen, die genauso komfortabel wie die von Google, Facebook & Co. etc. sind, aber auf Datenschutz setzen, und dann noch durch schlaues Marketing ein Hype erzeugt wird, könnte eine Plattform wie Facebook schnell vergessen sein. Und auch manche regulatorischen Maßnahmen könnten den Geschäftsmodellen, die oft immer noch vor allem auf personalisierter Werbung basieren, das Wasser abgraben. Oder wenn Apple dafür sorgt, dass Facebook und Google auf iPhones quasi keine Daten mehr sammeln können.
Dafür plädiert auch @carla.hustedt
Das ist ein guter Punkt @SamS. Voraussetzung dafür ist allerdings, dass sich die Regulierungsbehörden und Parlamente laufend über den Stand der Entwicklung informieren und austauschen. Weiß nicht, ob das der Fall ist. Hast du da mehr Einblick?
Kann deinen Punkt gut nachvollziehen. Werbefinanzierung, die auf reiner Reichweite basiert, führt oft zu wirklich problematischen Entwicklungen.
Aber ein Teil des Problems ist sicher, dass Teile der Bevölkerung für die Horrorinhalte, die du skizzierst, empfänglich sind. Daran könnten wir wohl nur durch bessere Bildung und mehr Chancengerechtigkeit etwas ändern. Und dann sehe ich schon auch die Gesetzgeber in der Pflicht, für mehr Transparenz zu sorgen bzw. vorauszusetzen, das so etwas wie Autoplay, personalisierte Empfehlungen etc. kein Default sein sollte, sondern nur per Opt-in.
Wenn wir zum Schluss kommen, dass KI a) kontrollierbar bleibt und b) das Potential hat, gesellschaftlichen Nutzen, zum Beispiel in Form einer besseren Gesundheitsversorgung, zu stiften, dann sollten wir natürlich dafür sorgen, dass davon auch alle profitieren können. Nicht nur die Reichen. Da bin ich ganz bei dir. Und, ja, wir haben ein Mehr-Klassen-Gesundheitssystem, aber zumindest in weiten Teilen Europas eines, wo auch gesetzlich Versicherte von neuesten Entwicklungen profitieren können. Nicht von allen, aber von vielen. Dass gerade der afrikanische Kontinent bei der Verteilung des Impfstoffs völlig übergangen wird, ist allerdings in der Tat kein gutes Omen, wenn wir auf die globale Ebene schauen.
Das finde ich auch @alfred.masal! Wir könnten sicherlich vieles über unsere Entscheidungsmuster erkennen. Derzeit passiert einiges im Bereich „Explainable AI“, was in diese Richtung geht. Bin allerdings sehr gespannt, ob es gelingen wird, die Black Box wirklich wieder zu öffnen.
Ja, und leider wird weltweit auch schon daran gearbeitet, KI zu militärischen Zwecken zu nutzen. Dazu liefert uns @Michael bald noch einen Überblick.
Hehe, schöne steile These. So pauschal würde ich ihr nicht zu stimmen, zumal nicht alle Tech-Unternehmen da draußen nur gesellschaftsschädliche Absichten haben. Aber diesen Punkt finde ich echt spannend:
Ist das ein Plädoyer dafür, lieber die Hände von KI zu lassen? Oder glaubst du, es gäbe einen Weg KI so einzusetzen, dass sie der Gesellschaft nutzt und nicht nur der Industrie?
Absolut. Aber wahrscheinlich stecken vielen Unternehmen wirklich noch die verpassten Hypes so in den Knochen, dass sie jetzt kein Risiko eingehen wollen
Bin selbst absoluter KI-Fan. Nutze z.B. ziemlich begeistert einen Dienst zum Vergrößern und Verbessern von Bildern oder auch einen zum Erstellen von Deepfakes. Bei solchen Services stört auch niemanden, dass die Leistung komplett in der Blackbox entsteht, weil da kein großer Schaden durch die KI entstehen kann. Mein Plädoyer wäre die Hände da wegzulassen, wo KI in ihrer aktuellen Form der Gesellschaft gravierend schaden kann. Z.b. alles was mit Gesichtserkennung und predictive policing zu tun hat, also da, wo eine (richtig rechnende) KI zu gravierend falschen Ergebnissen kommen kann, die Menschenleben zerstören können. Dafür ist KI noch nicht weit genug und entsprechend werden da regelmäßig Moratorien gefordert…Die Frage, wie die KI mehr der Gesellschaft statt vor allem der Industrie nutzen kann, ist echt zentral und tricky. Ich bin immer unsicherer, ob es diese vielbeschworenen AI4Good-Cases überhaupt gibt, wo KI vorrangig zum Nutzen der Menschen entwickelt wird. Aber vielleicht braucht es das auch nicht. Vielleicht kann der gesellschaftliche Nutzen indirekt dadurch entstehen, dass die Industrie-Leute ihren (oft staatlich subventionierten) Gewinn der Gesellschaft zurückgeben. Die müssen einfach brav und mehr Steuern zahlen damit Industrie-Gewinne zu Gesellschaftsgewinnen werden. Gelder unmäßig anzuhäufen wie im Falle der bekannten Tech-CEO’s ist asozial im buchstäblichen Sinne des Wortes. Im Grundgesetz haben wir den Artikel 14 „Eigentum verpflichtet“, der solche Missstände aufheben soll, der aber in der Rechtssprechung noch nie (!) angewendet wurde.
Gibt es dazu einen Interpretationstext? Mich würde sehr interessieren was damit wirklich beabsichtigt war oder ist.
Beabsichtigt war ein Instrument gegen ausbeuterische Fabrikbesitzer zu schaffen (https://de.wikipedia.org/wiki/Sozialpflichtigkeit_des_Eigentums). Unser Grundgesetz ist eigentlich ganz cool, da ist alles drin um die Gesellschaft zusammenzuhalten. Leider wird es eben nicht umgesetzt und §14 (2) ist daher ein gutes Beispiel für den Spruch „Ethik funktiniert ohne Gesetze, aber Gesetze nicht ohne Ethik.“
Lieber Max, danke für deine tolle Erklärung!
besonders der Zusatz, was wie herum funktioniert!!!
Ich habe heute Nacht eine Petition gestartet, wo das „Grundrecht auf Wohnen“ ins GG eingebracht wird. Weil es ist nicht nur für „ausbeuterische Fabrikbesitzer“ eine „Sozial-pflicht des Eigentums“ gibt, sondern auch für Wohnungsbauconzerne geben muß!!!
Es kann nicht sein!, das wir in Deutschland 650.ooo Obdachlose haben und nach wenigen Frosttagen schon 17 Erfrorene gefunden haben. Die Dunkelziffer ist nur schätzbar mit einem Kaffeesatz!
Was die KI betrifft, sind mir heute Nacht folgende Zusammenhänge bewusst geworden:
Alles !!! egal obPflanzen, Tiere oder Menschen hat ein endliches Leben, was zwischen Geburt und Tod stattfindet. Im Augenblick versuchen wir gegen Corona fast jedes Leben möglichst zu verlängern, riskieren dabei aber den Tod von anderen durch einseitige Maßnahmen - (z.B. verschobene Krebstherapie)
Im Einzelfall „menschlich“. Beim Blick auf die Toten im Mittelmeer, also an unserem Urlaubsrevier, sehen wir das „politisch“ anders. Da sind es unbekannte tote ohne einen Bezug.
Wir haben die Todesstrafe abgeschafft, in anderen Ländern ist sie noch üblich.
Wie geht man mit suizidalen Menschen um?
Bei einer KI, sich selbst weiterentwickelnd, könnte man ja vermuten, das diese Maschine irgendwann beginnt, Leben mit Wirtschaftichkeit zu verbinden - eben LERNFÄHIG.
Wie oder wer will und kann dann in welchem Interesse Kontrolle oder gar Korrektur ausüben?
Wenn uns lebende Menschen etwas wert sind, versuchen wir alles OHNE KI zu retten, wenn möglich.
Schon jetzt zeichnen sich u.a. folgende Probleme ab und auf:
Durch unser total vernetztes Rettungsystem werden ca 50% aller Einsätze überflüssigerweise doppelt gefahren. Umweltschutz abgehakt, Einsatzbeschränkung abgehakt, Behinderung arbeitender Menschen Restrisiko. -
wie wird dann später mal eine KI eine Brandmeldung bearbeiten???
unwichtig??? nur zwei Menschen vom Tod bedroht… könnten 500 im Stau stehen???
Anderes gravierendes Problem: Durch eine weitere Verbesserung unserer medizischen Versorgung steigt auch die Lebenserwartung drastisch an! heute ist in fast jedem Altenheim mindestens ein Bewohner über 100 Jahre alt.
Nicht, das ich nicht jedem einzelnen ein langes gesundes Leben gönne!!!
Ich sehe vielmehr die Problematik, das nicht die KI die Ernährung, Heizung und Pflege stellt, sondern Menschen dafür arbeiten müssen! Die, die im Heim arbeiten und diejenigen, die diese Heimleistungen bezahlen müssen. Das hört sich jetzt wenig menschlich an, mehr nach Denkweise einer KI, aber wie würde eine KI solch ein Problem, einmal erkannt, lösen wollen?
Ich bin der Überzeugung, das wir uns besser erst mal Gesellschaftlich neu sortieren und dann an eine Aufgabenzuweisung an eine KI denken sollten!
Sonst könnten Obdachlose, egal warum, zum angeordneten Suizid abgeholt werden???
oder Zwangseingefroren werden???
Markaberweise steht in einer neuen Stadtverordnung der Stadt Krefeld sinngemäß:
„für Obdachlose besteht kein Aufenthaltsrecht in öffentlichen Räumen…“ !!! Gedacht war die Formulierung für den SCHUTZ von Fußgängerzonen, Grünanlagen, öffentlichen Parkhäuser gegen den Anblick mittel- und obdachloser Menschen…
Das sind noch die Ergebnisse „politischer Intelligenz“, die können wir abwählen, wenn wir wollen? wann könnten wir bei einer Maschine noch den Stecker ziehen???
Liebe Julia, Deine Abschlussfrage wurde in dem Film „Odysee im Weltall“ hinreichend veranschaulicht!
Der die Raumstation (ähnlich der ISS) leitende Computer, selbstlernend am Beispiel von Schach im Film gezeigt, befand am Ende des Films den letzten Astronauten für überflüssig und schob ihn ab ins All…
Die Frage an Uns ist also, lassen wir solch ein Gehirn zu???
Oder sind wir ähnlich schwach intelligent, erst für Unsummen Atombomben zu bauen um anschließend Abrüstungsabkommen zu verhandeln???
Wieviel Menschen könnten davon satt werden, was die Bomben gekostet haben???
Lieber Wolfgang, das sind wirklich sehr anschauliche Beispiele dafür, wie wenig voraussichtig die KI-Revolution gerade vorangetrieben wird. Es erinnert sehr an die anfänglichen Bestrebungen der Atom-Industrie, einfach alles mit Radioaktivität zu regeln. Früher gab es Zahnpasta mit Uran, heute gibt es Zahnbürsten mit KI. Vielleicht muss jede Technologie durch diese „orale Phase“ oder zuminstest durch eine Zeit des extensiven Übertreibens, bevor die Leute merken, was davon alles Quatsch ist. Ich hoffe z.B. dass diese faschistoide Tech-Dystopie in Nevada zumindest solche Erkenntnisse begünstigt (die Vermutung liegt Nahe, dass es hier um die von Google geplante aber abgesagte Smart City in Toronto geht, die nun in Nevada errichtet werden könnte).
Lieber Max, danke das du meine Sichtweise so treffend beschreibst: „wenig vorraus-sichtig“ nennst du diese Revolution. Das ist aber eine der Kerneigenschaften von Revolutionen. Ob es jetzt die Französische oder später die Russische war, erstmal sind viele Köpfe gerollt! und wenn ich an eine der 1. Kommentare nach der Findung des 1. Radioaktiven Elementes denke:
„Die erste Nutzung wird militärisch sein!“ von daher ist meine Meinung: "wehred den Anfängen! " damit wir hinterher nicht fragen müssen: „wie bekommen wir den Geist wieder in die Flasche?“