Verbot von autonomen Waffen: Was wir von den Konventionen zu Bio- und Chemiewaffen lernen können

Die Entwicklung von autonomen Waffensystemen, die mit Künstlicher Intelligenz selbstständig entscheiden, ob sie Menschen töten oder nicht, schreitet voran. Weltweit wird deshalb ein Verbot solcher Systeme gefordert – und auch auf Vorbilder verwiesen. Denn Bio- und Chemiewaffen sind bereits verboten. 1E9-Mitglied Jakob Seidler erklärt, warum diese Verbote nur bedingt gute Vorbilder sind, und fordert entschlossenes Handeln.

Von Jakob Seidler

Künstliche Intelligenz kann der Menschheit zu einer nie da gewesen Lebensqualität verhelfen. Zumindest, wenn wir sie richtig einsetzen. Doch wie Michael Förtsch von 1E9, während des Themenspecials KI, Verantwortung und Wir in seinem Artikel zu autonomen Waffen bemerkte, ist dieser richtige Einsatz nicht garantiert. Zwar sind autonome Killerwaffen, abgekürzt: LAWS, Lethal Autonomous Weapon Systems, im militärisch-industriellen Komplex noch Zukunftsmusik. Doch ihre direkten Vorgänger, welche zumindest noch für jeden Abschuss einen Befehl brauchen, sind bereits der absolute Renner.

In Folge des Krieges zwischen Aserbaidschan und Armenien wurden im Allgemeinen unbemannte Drohnen zum entscheidenden Faktor für den aserbaidschanischen Sieg in Nagorno-Karabakh gekürt. Ähnliche Stimmen verbreiteten sich nach den Bildern aus dem libyschen Bürgerkrieg, in dem die Regierung autonome Drohnen zur Verfolgung und zum Beschuss fliehender Soldaten der verfeindeten Libyschen Nationalarmee benutzte.

Militärs auf der ganzen Welt sehen immer autonomere Waffen als die perfekte Möglichkeit an, ungewollte menschliche Opfer zu verringern – auf der einen Seite in Form weniger getöteter Zivilisten aufgrund der höheren Präzision von Maschinen, auf der anderen Seite in Form weniger gefallenen eigenen Soldaten, die auf dem Schlachtfeld gar nicht mehr anwesend sind.

Dies sind durchaus gute Argumente, sie müssen allerdings den Kosten eines Einsatzes solcher Technologie gegenübergestellt werden: dem unheimlich verringerten Preis eines Menschenlebens. Eine Waffe, die nicht einmal menschliche Anwesenheit benötigt, um tödliche Verletzungen zu verursachen, macht das Nehmen von Menschenleben so einfach und unpersönlich wie das Installieren einer Waschmaschine. Für welchen Umgang mit KI und Waffen sollten wir uns entscheiden?

Neue Waffen werfen nicht zum ersten Mal schwierige Fragen auf

Schon mehrfach standen wir als globale Gesellschaft an einem solchen Scheideweg – und zwar als wir über nukleare, biologische und chemische Waffen sprechen mussten. Alle drei Forschungsbereiche, Atomphysik, Chemie von Gasen und Bakteriologie/Virologie, die den Waffen zu Grunde lagen, besaßen enormes Zerstörungspotential und bargen zugleich unvorstellbare Möglichkeiten, das menschliche Dasein zu verbessern.

1972 kamen deshalb Vertreter von Staaten aus vielen Teilen der Welt zusammen, um das Genfer Protokoll von 1925, das schon seit damals den Einsatz von Giftgas und bakteriologischen Waffen verbot, zu erweitern und jegliche Forschung an, Produktion von oder Handel mit biologischen Waffen global zu verbieten. Dasselbe geschah 1993 noch einmal, um den Einsatz und die Entwicklung von chemischen Waffen zu untersagen. Diese Technologien im Kampfeinsatz zu verwenden, wurde allgemein als menschenverachtend angesehen und deshalb verboten. Wir befinden uns jetzt wieder in einer ähnlichen Situation.

Die gegenwärtigen Regeln für gerechte Kriege wurden für Kriege zwischen Menschen konzipiert. Deren Zeit haben wir vor ein paar Jahren verlassen. Kleine Drohnen, die autonom über einem Schlachtfeld kreisen und sich auf Befehl jederzeit auf ein ausgewähltes Ziel stürzen können, um ihre 15 Kilogramm Sprengstoff zu detonieren, im Waffenrecht Loitering Munitions genannt, haben die Kriegsrealität grundlegend verändert. Deshalb braucht es jetzt neue, globale Regeln, um Krieg, der von autonomen Robotern geführt wird, zu regulieren. Dieser Artikel prüft was wir von den oben genannten, historischen – und alles andere als perfekten – Konventionen lernen können und wie wir, wenn möglich präventiv, den Einsatz von Robotern verhindern, die selbst entscheiden, wann sie den Abzug drücken und wann nicht.

Warum wir globale Regeln brauchen

Das Feld der KI-Ethik befindet sich in einem schlechten Zustand. Auf der einen Seite gibt es zwar Initiativen wie die deutsche Datenethikkommission, gestartet durch die Bundesregierung, die 2019 ein Gutachten mit Vorschlägen herausgebracht hat. Auf der anderen Seite ist die Umsetzung solcher Vorschläge bisher immer nur sehr langsam und oft unzureichend vorangeschritten. Erfreuliche Nachrichten sind die Ambitionen der EU-Kommission, harte Richtlinien zum Thema Künstliche Intelligenz zu schaffen, nachdem sie mit der Datzenschutzgrundverordnung DSGVO auch schon in Sachen Privatsphären-Schutz global vorangegangen ist.

Doch wie uns allen klar ist, hat die DSGVO auch viele Macken. Vor allem die informierte Zustimmung zu Cookies und dergleichen ist in der Umsetzung fast gänzlich gescheitert, da die Normen der weltweiten Branche sich nicht verändert haben. Ähnliches wird höchstwahrscheinlich auch mit einer allein durch die EU initiierten Regulierung von KI geschehen. Es reicht bei diesen Themen nicht, wenn Deutschland oder die EU vorangehen, da stringentere Gesetze immer einen weltweiten Wettbewerbsnachteil bedeuten.

Firmen wie Google und Facebook scheinen immer noch auf wirtschaftliche Selbstregulierung zu pochen.

Firmen wie Google und Facebook scheinen immer noch auf wirtschaftliche Selbstregulierung zu pochen, da diese Themen schließlich zu komplex seien, um von außenstehenden Gesetzgebern verstanden zu werden. Ihr Projekt Partnership on AI ist ihr erster Schritt in diese Richtung und zeigt ihre Absichten. Außerdem haben die beiden Marktführer für Künstliche Intelligenz in den letzten Monaten ihre wichtigsten Angestellten in ihren Ethikkommissionen aufgrund von „Meinungsverschiedenheiten“ gefeuert.

Wenn die Marktführer einen solchen Ton angeben, müssen sich die kleineren Projekte oft daran anpassen. Gleichzeitig entsteht eine Race-to-the-Bottom Dynamik der möglichst laschen Regulierung zwischen Staaten, um als attraktive Standorte für eine solche Branchenkultur dazustehen. Solange wir keine globalen Regeln zum Umgang mit Künstlicher Intelligenz umsetzen, werden einzelne Staaten oder Staatenverbünde immer zu Recht ein wenig auf ihre Wirtschaft schauen und hören müssen, wenn sie wichtige Gesetze in diesem Gebiet verabschieden wollen. Den potenziellen Verlust von zehntausenden von Arbeitsplätzen aufgrund umziehender Firmen möchte schließlich keine gewählte Regierung verantworten.

Global bindende Regeln, die überall zur selben Zeit eingesetzt werden, sind also notwendig, um solche Transformation der von Menschen geschaffenen Welt erfolgreich zu meistern. Und tatsächlich gab es in den letzten Jahrzehnten wie schon angedeutet mehrere Versuche, solche Regeln zu erschaffen. Die zwei Jahrzehnte nach dem Zweiten Weltkrieg wurden durch Konferenzen zu Atomwaffen dominiert, danach gab der nukleare Atomsperrvertrag ein mehr oder minder befriedigendes Absprungbrett zu den nächsten zwei großen Themen: den biologischen Waffen und chemischen Waffen.

Nachdem im Ersten Weltkrieg Giftgase über 100.000 Zivilisten und Soldaten als Todesopfer forderten, wurde ihr Einsatz – sowie der von „bakteriologischen Waffen“ – im Genfer Protokoll 1925 verboten. Doch nur 20 Jahre danach hatte Nazideutschland nicht nur ein deutlich verheerenderes Nervengas entwickelt, sondern auch genügend davon produziert, um potenziell ganz London zu töten. Auch die Alliierten hatten ihre Giftgaslager gut bestückt. Im deutlich beschleunigten Zweiten Weltkrieg fand Giftgas allerdings keine Verwendung mehr. Konventionelle Waffen boten deutlich effektivere Alternativen im Kampf mit technologisch gleich ausgerüsteten Gegnern. Auch biologische Waffen waren nicht nützlich genug, um eingesetzt zu werden.

Die Biowaffenkonvention scheitert an einem mangelnden Kontrollgremium

Vor dem Hintergrund dieses stark reduzierten militärischen Nutzens konnte 1972 ein erstes Abkommen geschlossen werden, das nicht nur die Benutzung, sondern auch Forschung, Produktion und Handel mit biologischen Waffen verbot. Das große Problem der Konvention zu biologischen Waffen, die inzwischen über 183 Staaten ratifiziert haben, ist jedoch das Fehlen eines Kontrollgremiums. Eine nachträglich geschaffene, winzige Implementierungs-Unterstützungs-Einheit, bestehend aus drei Vollzeitbeschäftigten, hilft Staaten zwar mit dem Ratifizierungsprozess, kann aber keine Inspektionen durchführen.

Das Hauptkontrollmittel ist, Staaten, die vermutlich gegen die Konvention verstoßen, beim UN-Sicherheitsrat zu melden. Da eine derartige Meldung jedoch wegen des damit verbundenen Aufwands bisher noch nie genutzt wurde, könnte die Kontrollfunktion genauso gut auch gar nicht existieren. Als diese massive Lücke in Konferenzen um die Jahrtausendwende nachgebessert werden sollte, verhinderten vor allem die USA und Russland die Erschaffung richtiger Kontrollen.

Biologische Kampfstoffe reichen schon in kleinen Mengen aus, um eine Epidemie zu verursachen. Produktionseinheiten können somit überall versteckt sein, weil keine großen Lagerhallen notwendig sind. Und da waffenfähige Bakterienkulturen oder Viren oft auch für kommerzielle und Forschungsinteressen verwendet werden, würde ein effektives Kontrollgremium Zugriff auf jegliche Biotech-Einrichtung in jedem Land benötigen; nicht nur auf die militärischen Standorte, sondern auch auf jedes Universitätslabor und jede privatwirtschaftliche Produktionshalle. Deshalb stellte es sich als zu schwierig heraus konsequente Inspektionen mit wirtschaftlichen Interessen der wichtigsten Biotech-Länder zu vereinen. So wurden bis heute keine effektiven Kontrollen eingeführt.

Biologische Kampfstoffe reichen schon in kleinen Mengen aus, um eine Epidemie zu verursachen.

Trotzdem gab es in den letzten Jahrzehnten nur sehr wenige bekannte Fälle der Nutzung biologischer Waffen. Einzelne Ausnahmen bilden zum Beispiel der erste Golfkrieg, in dem der Irak für kurze Zeit solche Technologien einsetze. Im Anschluss zwangen die USA die Regierung in Bagdad dazu der Konvention beizutreten. Im zweiten Irakkrieg wurden dann, trotz gegensätzlicher Behauptungen seitens der USA, keine solchen Waffen mehr gefunden.

Allerdings wird gefährliche Gain-of-Function Forschung überall auf der Welt weiterhin vorangetrieben, die sich darauf spezialisiert, bestehende Krankheitserreger zu verändern, um verschiedene Eigenschaften zu verstärken. Zum Beispiel könnte eine sehr tödliche Krankheit wie Ebola modifiziert werden, um auch noch genauso ansteckend wie das gegenwärtige Coronavirus zu sein. Das kann zwar wissenschaftlichen und wirtschaftlichen Nutzen haben, birgt aber immer die Gefahr das gezüchtete Superkrankheiten aus Versehen in die Bevölkerung gelangen, wie es nachweislich kurz nach 9/11 mit einem Ausbruch von Anthrax/Milzbrand in den USA geschah.

Allein die theoretische Möglichkeit, dass COVID-19 aus dem Institut für Virologie in Wuhan aus Versehen ausgebrochen sein könnte, zeigt die möglichen Konsequenzen von Gain-of-Function-Forschung und ist ein klarer Aufruf, die biologische Waffenkonvention zu erweitern und zu verbessern. Dort wird nämlich nur Forschung an expliziten Kampfstoffen verboten, nicht unnötig gefährliche Forschung an Krankheitserregern, die aus Versehen zu Kampfstoffen in Form von weltweiten Pandemien werden können.

Bei Chemiewaffen hat man aus der Biowaffenkonvention gelernt

In der Konvention zu chemischen Waffen von 1993 konnte der Bedarf nach einem Kontrollgremium deutlich effektiver gelöst werden. Eine gemeinsam erschaffene Organisation, die OPCW, kontrolliert, dass Waffenlager wirklich zerstört werden, und kann jederzeit unangekündigte Inspektionen durchführen. Es wird als das erfolgreichste Abrüstungsabkommen der Menschheitsgeschichte gehandelt, denn obwohl kein Land die eigentlich vorgesehenen Fristen zur Zerstörung der eigenen Vorräte einhielt, sind jetzt fast alle deklarierten Bestände vernichtet. Der Erfolg kann hierbei wahrscheinlich dem Mangel an zivilen Nutzen für die populärsten Giftgase wie Senfgas oder Sarin, wodurch es keinen Einfluss von wirtschaftlichen Interessen gibt, zugeschrieben werden. Dieser Umstand könnte die Hauptursache dafür sein, dass die Konvention zu chemischen Waffen effektiver ist als die Konvention zu biologischen Waffen.

Trotz des generellen Erfolgs des Abkommens in der Abschaffung von chemischen Substanzen als Massenvernichtungswaffen im Krieg zwischen ebenbürtigen Gegnern, oft basierend auf ihrer Nutzlosigkeit, gibt es in den letzten Jahren wieder mehr Fälle, in denen chemische Waffen eingesetzt werden. In asymmetrischen Kriegen wie dem syrischen Bürgerkrieg oder gegen Einzelpersonen wie Alexei Navalny und Sergei Skripal wird der Nutzen von chemischen Waffen leider wiederentdeckt.

Neben all den spezifischen Unzulänglichkeiten, gibt es auch allgemeinere Probleme mit den beiden Konventionen. Im Fokus steht die starke Kritik am Entstehungsprozess der beiden Papiere, da ihr Autor, die Abrüstungskonferenz in Genf, nur selektiv Mitglieder aufnimmt und immer noch weniger als die Hälfte aller Staaten teilnehmen lässt. Dadurch kann ein großer Teil der Länder, die solche Konventionen vielleicht unterschreiben würden, nicht bei ihrer Entstehung mitdiskutieren, sondern kriegen einen Text diktiert, was die Überzeugung der einzelnen Staaten hinter dem weltweit zu schaffenden Konsens schwächer macht.

Für beide Kategorien gilt jedoch, dass das wichtigste Ergebnis dieses gesamten Prozesses der fast weltweite moralische Konsens ist, den Einsatz dieser beiden Waffentypen als menschenverachtend und undenkbar einzustufen. Diese weltweite Klasse von Kampfmitteln, die in keinem Fall für einen Einsatz gegen Menschen zu rechtfertigen sind, bildet einen Präzedenzfall für weitere Technologien, für die eine solche Klassifizierung notwendig ist.

Bei KI könnten wir aus Fehlern lernen und auf Tradition aufbauen

Im Fall von Künstlicher Intelligenz lässt sich also hauptsächlich aus den Fehlern dieser Abkommen lernen und zumindest darauf aufbauen, dass es sie überhaupt gibt, als von ihnen direkt Strategien zur wirksamen Implementierung abzuschauen. Denn beide Konventionen wurden erst nach grauenvollen Demonstrationen biologischer und chemischer Massenvernichtungswaffen erlassen, denen viele Menschen zum Opfer fielen. Beide Konventionen wurden erst verabschiedet, als der Einsatz der betroffenen Technologien als nicht mehr effektiv angesehen wurde. Und beide wurden von einem exklusiven Klub geschaffen und dann erst langsam, auch durch militärischen Druck, ausgeweitet.

Sollte sich Geschichte wiederholen, erscheint ein weltweites präventives Abkommen zum Verbot autonomer Waffen daher unwahrscheinlich. Es könnte sogar schon zu spät kommen. Denn tatsächlich beschuldigte ein Report der Vereinten Nationen bereits im März 2021 die libysche Regierung, türkische Kargu-2 Drohnen zur Verfolgung und Tötung fliehender Soldaten eingesetzt zu haben, ohne dass dabei eine Funkverbindung zwischen der Drohne und dem Militär bestehen musste. Die Drohnen hätten demnach autonom getötet. Das Zeitfenster, präventiv zu handeln, schließt sich also schnell.

Ob autonome Waffentechnologien gut von wirtschaftlichem KI-Einsatz oder Forschung abzugrenzen sind, wird sich noch heraus stellen.

Ob autonome Waffentechnologien gut von wirtschaftlichem KI-Einsatz oder Forschung abzugrenzen sind, wird sich auch noch heraus stellen. Die Entwicklung der einzelnen Bausteine – von Gesichtserkennung über schnelle Quadrokopter bis zu kleinen Sprengsätze – lässt sich wie bei biologischen Waffen nur sehr schlecht kontrollieren. In ihrer Zusammensetzung lässt sich die Intention, einen autonom handelnden, bewaffneten Roboter zu bauen jedoch wie bei chemischen Waffen sehr schnell erkennen. Zumindest hat hier die chemische Waffenkonvention einen Präzedenzfall für ein wahrlich mächtiges und effektives Kontrollgremium mit einem ausgeprägten Überprüfungsmandat geschaffen.

Wenn wir neue Wege finden können, um autonome Waffen in die durch diese Konventionen geschaffene weltweite Ebene der moralischen Verdammung zu erheben, könnte die Entwicklung in dieser hochgefährlichen Rüstungssparte unterbunden werden, bevor sie großen Schaden anrichtet.

Mehrere Abkommen auf einmal – statt schwache Kompromisse

Mit der Kampagne Stop Killer Robots von Human Rights Watch gibt es bereits eine globale Bewegung, die für diese Sache eintritt. Auch gibt es schon eine weltweite Allianz von Staaten, die ein solches präventives Verbot in der Generalversammlung der Vereinten Nationen vorbringen und durchsetzen wollen.

Finanzielle Interessen halten jedoch wichtige Länder wie die USA, Großbritannien, Israel, das weder die Konvention zu chemischen noch biologischen Waffen ratifiziert hat, China, Russland und Südkorea zurück, da sie als Vorreiter in der Produktion dieser Technologie in der Anfangsphase große Gewinne machen könnten. Um diese Hürden zu überwinden, hat sich in Großbritannien eine Gruppe namens Simpol gegründet, die versucht, durch Abkommen zu mehreren Problemen gleichzeitig einen Ausgleich für solche Nachteile zu schaffen. Gegenwärtig werden ambitionierte Regulierungsvorschläge oft von ein paar wichtigen Parteien mit gegensätzlichen Positionen bei Verhandlungen so lange abgeschwächt, bis die Regulierungen fast schon wirkungslos sind. Der Grund für diese schwachen Kompromisse ist aus Sicht von Simpol, dass der Ausgleich der Interessen innerhalb dieses einen Abkommens gelingen muss.

Simpol schlägt daher vor, einen solchen Ausgleich im Rahmen von zwei gleichzeitig verhandelten Abkommen stattfinden zu lassen, sodass beide mit voller Stärke erlassen werden. Dabei werden die jeweiligen Parteien für ihre Nachteile in einem Abkommen mit Vorteilen im anderen Abkommen kompensiert.

Im Fall der autonomen Waffen haben hauptsächlich technologisch hochentwickelte, reiche Staaten einen Nachteil, da sie ihre Technologie eventuell nur noch eingeschränkt verkaufen dürfen. Diesen Nachteil könnte man beispielsweise mit einem Abkommen gegen Steueroasen verbinden, die es kleinen, ärmeren Länder verbietet, ihre Steuern so stark zu senken, dass Bürger aus den reichen Ländern ihr Vermögen dorthin verschieben. Dies würde zwei weltweite Probleme, die zum Wohle der Menschheit so oder so gelöst werden müssen, gleichzeitig beseitigen und weltweite Unterstützung durch Ausgleich schaffen.

Verstehe, was die Zukunft bringt!

Als Mitglied von 1E9 bekommst Du unabhängigen, zukunftsgerichteten Tech-Journalismus, der für und mit einer Community aus Idealisten, Gründerinnen, Nerds, Wissenschaftlerinnen und Kreativen entsteht. Außerdem erhältst Du vollen Zugang zur 1E9-Community, exklusive Newsletter und kannst bei 1E9-Events dabei sein. Schon ab 2,50 Euro im Monat!

Jetzt Mitglied werden!

Ein holistischeres Vorgehen, das mindestens zwei oder sogar mehr Themen miteinander verbindet, macht Prozesse zwar zuerst komplizierter und langwieriger, kann am Ende aber zu einfacheren und stringenteren Regeln führen, da beide Seiten ihr Ziel erreichen wollen, wenn sie sich schon den Aufwand gemacht haben, Beratungen zu organisieren – und wenn sie irgendwann auch wieder damit aufhören wollen.

Damit Regierungen dann keinen Rückzieher machen können, pocht Simpol ergänzend auf starke Bürgerbeteiligung in den etwaigen Abkommen, um Politiker durchgehend zur Rechenschaft ziehen zu können, aber auch um die Interessen der Bevölkerung auf direkterem Wege durchzusetzen. Die Natur so entstehender Weltverträge, die überall zur selben Zeit in Kraft treten, könnte zudem den Standortnachteil beenden, der Staaten gegenwärtig oft in ein Race-to-the-Bottom zwingt anstatt ihnen die Möglichkeit zu geben, vorausschauende, stringente Regeln zu schaffen.

Nur durch Experimentieren kommen wir weiter, auch in der Politik.

Natürlich können diese alternativen Ideen, um internationale Abkommen zu schließen, auch komplett erfolglos verlaufen oder sogar allgemeine Politikverdrossenheit noch steigern. Da wir uns momentan scheinbar auf fast allen Ebenen im herkömmlichen System festgefahren haben, ist es aber den Aufwand wert, jede neue Idee zumindest einmal auszuprobieren. Nur durch Experimentieren kommen wir weiter, auch in der Politik.

Wer sich mehr informieren und der Initiative beitreten will kann auf der Website unter de.simpol.org vorbeischauen. 14 gegenwärtige Mitglieder des deutschen Bundestags sind bereits Unterstützer*innen. Die Kampagne von Human Rights Watch findet ihr unter stopkillerrobots.org – inklusive Vorschlägen, was der Inhalt eines potenziellen Verbots mindestens hergeben sollte. Noch steckt die Technologie in den Kinderschuhen – und ihr flächendeckender Einsatz kann verhindert werden, bevor sie sich kostengünstig zugänglich für jede gewaltbereite Einzelperson etabliert hat.

Lasst uns jetzt handeln!

Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook oder LinkedIn und verbreite unsere Inhalte weiter. Danke!

5 „Gefällt mir“

Danke @kamui für den wertvollen Beitrag zu dieser wichtigen Debatte! Hier kommen ein paar Gedanken von mir dazu.

Im Grunde laufen so ja viele Verhandlungen der Staats- und Regierungschefs der Europäischen Union ab, bei denen nach Marathonsitzungen dann häufig doch noch ein – mehr oder weniger – brauchbares Ergebnis dabei herumkommt. Insofern könnte dieses Vorgehen tatsächlich zu schlagkräftigeren Abkommen führen, wenn sich die Staaten denn darauf einlassen.

Ja, aber vielleicht geht es nicht nur um wirtschaftliche Interessen, oder? Autonome Waffensysteme sind Systemen zur Überwachung der Bevölkerung oder zum Schutz der Grenzen ja nicht völlig unähnlich. Und gerade in deren Entwicklung wird sich doch kein Staat, insbesondere kein autoritärer Staat, reinschauen lassen wollen, vermute ich. „KI“ ist einfach ein sehr weites Feld, so dass es schwierig wird, eine Grenze zu ziehen, was unter so ein Abkommen und die entsprechenden Kontrollmechanismen fällt und was nicht.

Insgesamt bin ich eher pessimistisch, dass ein internationale Verbot autonomer Waffen noch präventiv gelingt. Dagegen sprechen auch die Konventionen zu Bio- und Chemiewaffen, wie du es dargestellt hast. Und darauf hoffen, dass Tech-Unternehmen, die am Ende die Militärs dieser Welt beliefern, ein Einsehen haben… sollten wir wohl auch nicht. Trotzdem ist jede Initiative, die doch noch zu einem Durchbruch führen soll wichtig und richtig!

3 „Gefällt mir“