Autonome Waffen werden kommen, wenn wir nichts unternehmen

Künstliche Intelligenz sorgt nicht nur für Innovationen bei der Diagnose von Krankheiten, selbstfahrenden Autos oder Social-Media-Anwendungen. Sie revolutioniert auch die Waffentechnologie. Militärs und Rüstungsunternehmen investieren Milliarden in die Konzeption von autonomen Drohnen und Killer-Robotern. Sie sind schon fast Realität.

Von Michael Förtsch

Es ist sind Szenen, die gegen Ende von Terminator 3: Rebellion der Maschinen zu sehen sind. John Connor und Katherine Brewster dringen in die Militärlabors von Cyber Research Systems ein, um den General Robert Brewster vor der Aktivierung der Künstlichen Intelligenz SkyNet zu warnen. Sie wollen dadurch den Atomschlag der Maschinen gegen die Menschheit und den folgenden Krieg verhindern, bevor er eintrifft. Doch der General glaubt den beiden natürlich nicht – und wenig später infiltriert SkyNet alle Computersysteme der Welt. Kurz darauf bricht in den Gängen der Forschungslabors die Hölle los. Prototypen von autonomen Waffensystemen wie der fliegenden Killer-Drohne Hunter-Killer und dem Schlachtfeldroboter T-1 machen sich selbstständig und löschen Forscher und Soldaten aus.

Die Maschinen, die in dem 2003 veröffentlichten – und eher mittelmäßigen – Science-Fiction-Film zu sehen sind, wirkten seinerzeit noch futuristisch. Heute ist das anders. Ein allmächtiges Programm wie SkyNet oder ein mit fast schon echter Intelligenz ausgestatteter Roboter liegen zwar noch in weiter Ferne. Doch mit moderner Künstlicher Intelligenz – oder besser: mit durch Machine Learning erzeugten Mustererkennungs- und Entscheidungsfindungssystemen – lassen sich Waffensysteme bauen, die ohne menschliche Kontrolle und gelenkt von einem Computersystem handeln und töten können. Zu diesem Schluss kamen Ende 2020 auch Forscher in einem Bericht für den Bundestag. Was „vor nicht allzu langer Zeit ausschließlich in der Domäne der Science-Fiction beheimatet“ war, heißt es in ihrem Bericht, sei „nun an die Schwelle zur konkreten Umsetzung gerückt“. Und in Teilen sogar schon darüber hinaus.

Bereits seit Jahren setzen mehrere Länder auf Waffensysteme, die kaum noch einen Menschen brauchen, etwa auf Loitering Attack Munitions. Dass sind Waffen, die Namen wie Fire Shadow oder IAI Harop tragen und von den USA und Russland über Israel, Chile bis hin zu Südkorea und der Türkei eingesetzt werden. Dabei handelt es sich meist um simple Sprenggranaten mit Flügeln. Angetrieben von kleinen Rotoren können sie stundenlang über Gebieten kreisen und mit Wärmebild- und Radarsensoren nach Zielen suchen – und sich dann darauf stürzen. Es sind ziemlich einfache, aber trotzdem smarte Waffen.

Auch militärische Drohnen wie die Reaper und Predator, die Hermes 450, Kronshtadt Orion oder Wing Loong II sind hoch automatisiert. Sie brauchen eigentlich keinen Menschen mehr am Steuer. Sie können selbst starten, landen und ihren Weg finden. Ebenso können die Kamera- und Computersysteme der Drohnen ganz von selbst potentielle Ziele am Boden ausmachen, verfolgen – und mit Raketen beschießen. Der Part des Menschen ist es nur noch, das Ziel als Feind zu bestätigen und die Tötung zu autorisieren. Das gilt sowohl für die Loitering Attack Munitions als auch für die Drohnen.

„Wir nennen sie die Vorläufer [der voll-autonomen Waffen]“, sagte daher Mary Wareham, Regisseurin und Expertin für Waffen bei Human Rights Watch bei einem Treffen der Vereinten Nation im Jahr 2019. „Wir sind noch nicht ganz bei den autonomen Waffensystemen angekommen, aber wir kommen immer näher.“ Tatsächlich ist der Weg zu vollständig autonomen Waffen, die selbst entscheiden, wer lebt und stirbt, alles andere als weit.

Nur ein Software-Update entfernt

Die digitalen Systeme, die hinter modernen Drohnen und Waffensystemen stehen, könnten schon bald entscheiden, wen sie ins Fadenkreuz nehmen – und ob sie abdrücken. Denn dafür reichen im Grunde die gleichen Programme, Neuronalen Netze und Machine-Learning-Prozesse, die bereits jetzt Gesichts- und Objekterkennung bei Überwachungskameras, Lieferrobotern und autonomen Autos ermöglichen. Es wäre dafür nicht einmal nötig, neue Drohnen zu bauen oder die jetzigen aufwendig umzurüsten. Denn nur ein Teil der Technik steckt in den Waffensystemen selbst.

Das Gros dessen, was etwa eine moderne Drohne oder ein militärischer Roboter tun, wird auf und an Computern auf den zuweilen Tausende Kilometer entfernten Militärbasen entschieden. Zu denen halten die Geräte eine stete Verbindung und senden kontinuierlich einen Strom von hochauflösenden Aufnahmen und Sensordaten, die in Echtzeit analysiert und den fernsteuernden Piloten präsentiert werden. Es bräuchte nur eine Erweiterung der dortigen Softwareinfrastruktur, etwa um KI-Systeme, die auf den Bildern vollkommen automatisch Uniformen, Mündungsfeuer, Waffen und Gesichter erkennen oder die eigenen Soldaten und Feinde ausmachen können. Zusätzlich wäre eine Entscheidungs- und Taktikroutine denkbar, die dann ableitet, ob und wie der Waffeneinsatz erfolgen soll.

Solche KI-Systeme sind längst in Entwicklung und in Teilen sogar schon erprobt. Mit dem einst wegen der Mitarbeit von Google bekannt gewordenen Project Maven des US-Militärs etwa soll ein System entstehen, bei dem eine KI selbstständig Objekte auf Drohnen- und Satellitenbildern identifiziert, um diese Informationen an Analysten weiterzuleiten. Die nun vom umstrittenen Überwachungs- und Spionageunternehmen Palantir weiter entwickelte Software könnte jedoch genauso gut genutzt werden, um ad hoc vermeintliche Terroristen in den Videobildern von Killer-Drohnen auszumachen.

Das Office of Naval Research der US-Marine wiederum arbeitet seit mehreren Jahren an einem Projekt namens Swarm Boats. Ziel sind automatisierte Boote, die selbstständig Flugzeugträger und Kreuzer beschützen. „Die neue Technologie ermöglicht es den USVs – den unbemannten schwimmenden Vehikeln –, angreifende Gegner zu erkennen, abzuschrecken oder zu zerstören“, heißt es auf der Seite zum Projekt. Noch muss die Kommandobrücke jeden Schuss eines Bootes bestätigen. Aber bei einem Test mit mehreren autonomen Booten im Jahr 2014 konnte das Control Architecture for Robotic Agent Command and Sensing – kurz CARACaS – getaufte System bereits andere Boote als feindlich identifizieren und den Schwarm erfolgreich darauf ansetzen.

Die vom einstigen Oculus-Erfinder Palmer Luckey gegründete Rüstungsfirma Anduril entwickelt seit einigen Jahren die Softwareplattform Lattice, die Sensordaten verarbeitet. Sie informiert etwa Beamte, wenn Menschen ohne Genehmigung die Grenze überqueren oder in eine Militärbasis eindringen. In Zukunft soll sie ganz von selbst Drohnen aktivieren und aus der Höhe die Ziele überwachen, wenn auch nicht töten lassen. Kein Mensch muss dies autorisieren oder darüber vorab informiert werden.

Tatsächlich, so glauben einige KI-Forscher und Menschenrechtsaktivisten, könnten die Militärs einiger Länder bereits jetzt den human in the loop auslassen. Also Drohnen und anderen modernen Kampffahrzeugen die Tötungsentscheidung überlassen – und den Menschen aus der Rechnung entfernen. Es sei dann nur die Frage, wie viele Fehler die Algorithmen machen – also wie viele Unschuldige, Unbeteiligte und eigene Soldaten beim Einsatz sterben –, und ob das Militär bereit ist, das in Kauf zu nehmen. Letztlich sei es aber eher eine Frage von „Jahren nicht Jahrzehnten“ bis erste Staaten den Systemen Autonomie zugestehen, sagt Mary Wareham.

Autonome Panzer und Killer-Schwärme

Dass Militärs und Regierungen selbsttätig agierende, mobile Waffen als die Zukunft sehen, lässt sich nicht leugnen. Bereits jetzt werden zahlreiche Waffenprojekte von vornherein daraufhin entwickelt, ohne Mensch am Kontrollpult zu funktionieren. Milliarden fließen in Unternehmungen wie SkyBorg, mit dem die US-Luftwaffe ein unbemanntes Kampfflugzeug bauen will, das neben menschlichen Piloten im Luftkampf agieren kann. Andere Waffensysteme wie der Ende 2019 vorgestellte Mini-Panzer RIPSAW M5 sind zwar noch ferngesteuert. Jedoch ist der Wohnwagen-große Elektro-Panzer so konzipiert und mit genügend Kameras und Sensorik ausgestattet, dass es auch hier nur ein Software-Update bräuchte, um ihn der Kontrolle einer Künstlichen Intelligenz zu unterstellen. Auch der russische Panzer Armata T-14 soll, wenn die Technik ausgereift ist, nicht mehr von Menschen, sondern einer KI aus der Ferne gelenkt werden.

Aber auch deutlich kleinere Killer-Roboter und Drohen wie der Hunter-Killer aus Terminator 3 sind bereits Realität. Seit 2019 verkauft das chinesische Unternehmen Ziyan AV mit dem Blowfish A3 beispielsweise einen Mini-Helikopter, der ein Sturmgewehr tragen kann – und „für voll-autonome“ Steuerung ausgelegt ist. Erst Ende 2020 zeigte das chinesische Militärs den Prototypen eines Systems, das Dutzende von kleinen Drohnen hoch in die Luft feuert. Sie werden kurz vor dem Abschuss kabellos mit den Zielmustern programmiert und können sie dann mit integrierter Kamera und Mustererkennung anpeilen und sich mit einer kleinen Explosivladungen darauf stürzen.

Genau vor solchen Waffen haben Wissenschaftler wie der verstorbene Stephen Hawking oder Tesla-Chef Elon Musk bereits vor Jahren in einem offenen Brief gewarnt. „Wir sind wie Kinder auf einem Spielplatz,“ sagte Elon Musk 2018 im Interview mit Axios zum Thema Künstliche Intelligenz. „Du könntest für kleines Geld einen Schwarm von Attentäter-Drohnen bauen.“ Dafür brauche es nur die Chips und Gesichtserkennungstechnologie, die bereits in vielen Smartphones steckt. Kombiniert mit kleinen Drohnen und einer Explosivladung könnten sie als fliegende Killer genutzt werden, die, wenn sie „die Person finden, die sie suchen, kollidieren und explodieren.“

Auch der Kurzfilm Slaughterbots des Informatikers Stuart Russell machte auf die Gefahr solcher Waffenkonzepte aufmerksam – und zeigte auf, dass, wenn das Militär sie nutzen wird, der Weg zu autonomen Drohnen und Robotern als Terrorwaffe nicht weit ist. „Dieser Kurzfilm ist mehr als nur Spekulation“, sagte Russel. „Er zeigt lediglich die Ergebnisse der Integration und Miniaturisierung von Technologien, die wir bereits haben.“ Mit dem Fortschreiten der Drohnen- und Robotertechnik, der Zugänglichkeit und wachsenden Kapazität von KI-Software, könnten solche Waffensysteme in nicht einmal zwei Dekaden so verbreitet und günstig sein, wie jetzt Kalaschnikow-Gewehre.

Verstehe, was die Zukunft bringt!

Als Mitglied von 1E9 bekommst Du unabhängigen, zukunftsgerichteten Tech-Journalismus, der für und mit einer Community aus Idealisten, Gründerinnen, Nerds, Wissenschaftlerinnen und Kreativen entsteht. Außerdem erhältst Du vollen Zugang zur 1E9-Community, exklusive Newsletter und kannst bei 1E9-Events dabei sein. Schon ab 2,50 Euro im Monat!

Jetzt Mitglied werden!

Gesellschaft und Politik stehen in der Pflicht

Die Gefahr, die autonome Waffensysteme und deren Steuersysteme darstellen könnten, bleiben nicht unbeachtet. Ende 2020 stellte die Menschenrechtsorganisation Human Rights Watch einen Bericht vor, laut dem der Wunsch nach einem Verbot solcher autonomen Waffen wächst. Rund 30 Staaten hätten sich für internationales Verbot ausgesprochen. Keine Position, ambivalente Aussagen oder sogar Widerstand käme vor allem von Ländern, die in der Entwicklung solcher Waffen bereits sehr weit vorne sind – oder die an den Bauelementen und der Entwicklung mitverdienen würden.

Offiziell spricht sich China etwa für ein Verbot von autonomen Waffen aus – aber nicht gegen deren Erforschung und Entwicklung. Ebenso erklärt Großbritannien offiziell, dass es gegen voll-autonome Waffen ist und selbst keine nutzen will, fördert ihre Entwicklung aber mit Millionenbeträgen. Deutschland positioniert sich klar gegen autonome Waffen und dafür, dass „die menschliche Kontrolle über die Entscheidung einen anderen Menschen zu töten“ bestehen bleibt. Jedoch hat der Bundestag 2020 gleichzeitig gegen einen Antrag der Grünen gestimmt, in dem eine „völkerrechtliche Ächtung autonomer Waffensysteme“ durch Deutschland beschlossen werden sollte. Diese Entscheidung fiel entgegen einer Empfehlung der deutschen Enquete-Kommission für KI und trotz einer Studie des Büros für Technikfolgen-Abschätzung, die warnt, dass diese Waffen kommende Kriege und Konflikte grundlegend verändern und den Wert der Menschenwürde eklatant beschädigen könnten.

„Wenn Deutschland führte, würden viele Staaten folgen“, zeigte sich daher damals der Informatiker und Robotikexperte Noel Sharkey enttäuscht, der sich mit der Organisation Stop Killer Robots für ein Verbot autonomer Waffen einsetzt. Die Gefahr sei laut ihm nicht, dass sich Roboter gezielt gegen die Menschheit wenden und einen Krieg beginnen wie in Terminator. Sie sei aber sehr wohl, dass selbstständig arbeitende Killer-Roboter das menschliche Leben entwerten, ein Mord durch einen Roboter als eine Art „Naturereignis“ ohne Verantwortlichen behandelt wird – und es niemanden mehr gäbe, der einen Mord mit seinem Gewissen vereinbaren muss. Dazu würden sich Situationen durch autonome Kriegsmaschinen derart beschleunigen und verkomplizieren, dass sie nicht mehr von Menschen und Befehlsgebern nachvollziehbar sind.

Einige Forscher, Entwickler und Aktivisten sehen daher die Verantwortung auch bei jenen, die die Technik entwickeln, auf denen die autonomen Waffensysteme aufbauen. Sie müssten sich bewusst machen, wie und auf welche Weise ihre Algorithmen und Künstlichen Intelligenzen in Waffensystemen ge- und missbraucht werden könnten – und sich entsprechend positionieren und selbst gegen autonome Waffen einsetzen. Auch weil statt eines Soldaten womöglich irgendwann ein Informatiker, eine Computerwissenschaftlerin oder ein KI-Unternehmen für mögliche Kriegsverbrechen vor Gericht stehen könnte, weil sie eine Drohne oder Killer-Roboter gebaut hat.

Gäbe es niemanden, der die denkende Software für autonome Waffen entwickelt, würden diese nicht selbstständig töten können. Aber so einfach ist es wohl nicht. Denn die Krux ist das Prinzip des Dual-Use. Die Software, die Killer-Roboter ermöglicht, ist eben auch jene, die andere Innovationen beflügelt – sei es die Diagnose von Krankheiten, intelligente Verkehrsleitsysteme, witzige Videofilter in Social-Media-Apps oder eben selbstfahrenden Autos. Daher müssen letztlich wohl die Gesellschaft und die Politik eine klare Position gegen autonome Waffen beziehen, damit Szenen von Robotern auf Schlachtfeldern wie den Terminator-Filmen doch Fiktion bleiben. Noch ist es nicht zu spät.

Dieser Artikel ist Teil des 1E9-Themenspecials „KI, Verantwortung und Wir“. Darin wollen wir herausfinden, wie wir Künstliche Intelligenz so einsetzen, dass die Gesellschaft wirklich davon profitiert. Alle Inhalte des Specials findest du hier.

Teaser-Bild: Public Domain

5 Like

Oh, yes. Und ich würde sogar unterstellen, dass da manchmal absichtlich Technologien für einen mehr oder weniger harmlosen Zweck entwickelt werden/so dargestellt werden, nur um das dann später militärisch/autoritär zu missbrauchen. Ich war extrem entsetzt, mit welcher Begeisterung die tanzenden Boston Dynamics Roboter aufgenommen wurden. Einem kann schlecht werden, wenn man sich erinnert, wie gut diese Hunde sich schon vor zwei Jahren gegen Menschen durchsetzen konnten. Wenn man dann sieht, wie die Hunde in Singapur zur Kontrolle der Menschen eingesetzt werden, kann man sich ausrechnen, ab wann sie ganz normale Polizei-Aufgaben übernehmen wie z.B. Abschiebungen von Kindern. Hoffentlich reagieren die Leute dann hier vernünftig und schmeißen die Dinger sofort in den Fluß zu den chinesischen Obikes.

2 Like

Die tanzenden Roboter an sich finde ich fantastisch. Aber natürlich hast du auch Recht. Die Roboter lassen sich mit Sicherheit in absehbarer Zukunft für Aufgaben einsetzen, bei denen Menschlichkeit „nicht gewünscht“ oder „hinderlich“ ist. Die Grenzagentur Frontex will ja beispielsweise ihre Bootseinsätze reduzieren und stattdessen auf ferngesteuerte Flug-Drohnen setzen, um an EU-Küsten zu patrouillieren, weil sie dann nicht zur Seerettung verpflichtet ist. Da ist es dann nur ein vergleichsweise kleiner Schritt hin zu autonomen Drohnen, die an Grenzen und Küsten entlang fliegen und laufen, und Menschen anschreien, gefälligst zu verschwinden.

Dass die Entwicklungen von Boston Dynamics aber nicht kritisch gesehen werden, ist aber nicht so. Bereits als das erste Mal Cheetah als MIT-Projekt und später als Boston-Dynamics-Robo gezeigt wurde, wurde in mehreren Zeitungen von Forschern gewarnt, wie gefährlich ein solch agiler und vor allem schneller Roboter sein könnte, wenn man ihm beispielsweise ein Maschinengewehr auf den Rücken schnallt.

3 Like

Mal ehrlich die Gadgets von Boston Dynamics sind der Hammer. Speziell für autonomes Laufen und steuern von autonomen Machinen, wie z.B. Exoskelleten für gelähmte Patienten, super. Man stelle sich vor, die tragen Lasten, wie den Rucksack bei einer Wanderung oder sind als Lastenträger im Weinberg unglaublich dynamisch. Spot könnte der ideale Kinderwagen sein. Soll man darauf verzichten?

Nur weil bösmeinende Zeitgenossen Waffen aus den Geräten basteln könnten indem sie statt dem Maxi Cosi ein Maschinengewehr mit Munition und autonomer Bewegungserkennung auf den Rücken montieren und damit eine äußerst effektive Waffe herstellen.

Eine heutige deutsche Regierung wird die Technik evtl. gut gemeint und ethisch wohldefiniert einsetzen aber was ist mit der Regierung in 20 Jahren. Wird sie diese als Waffe gegen das eigene Volk einsetzen? Reden wir erst gar nicht über den Rest der Welt. Ganz ehrlich wer meint das beantworten zu können lügt!

Deshalb einem gelähmten Menschen, das vielleicht lang ersehnte autonom zu steuernde Exoskellett vorzuenthalten ist mindestens genauso verwerflich wie der Bau einer autonomen Waffe.

Was immer wir hier unternehmen wird autonome Waffen sowieso nicht aufhalten. D.h. wir müssen uns damit arrangieren und darauf einwirken, dass diese niemals wirklich eingesetzt werden und wenn es mit Abschreckung durch eigene autonome Waffensysteme geschieht.

5 Like

Lieber @Eberhard, Du hast absolut recht: jede noch so gut gemeinte Technologie kann misbraucht werden und wenn auch erst 20 Jahre später. Und ein Exoskelett für Menschen mit Behinderung ist definitiv eine feine Sache. Ob ein Mensch mit Behinderung aber darauf Anspruch haben sollte um den Preis, dass mit derselben Technologie militärische Zwecke verfolgt werden können, ist eine weit größere Debatte, an die ich mich persönlich nicht herantraue. Das geht für mich ein Bischen in Richtung der Frage, „Sollten nicht alle Menschen ständig und überall videoüberwacht werden, wenn dadurch der Missbrauch eines Kindes verhindert werden kann?“ Dies erfordert ein Abwägen von menschlichen Schicksalen, was unser Grundgesetz verbietet, also weder „ja“ noch „nein“ sondern „Enthaltung“.

Ich bin voll bei Dir, dass der Einsatz von Waffen paradoxerweise durch noch mehr Waffen auf der Erde reduziert werden kann. Dies ist sicherlich bei Atomwaffen der Fall wegen der „mutually assured destruction“ (vielleicht der einzige Grund dafür daß Nordkorea noch unabhüngig ist). Aber ich bin unsicher, ob dieses Prinzip auch bei autonomen Waffensystemen greift. Wo ich aber eindeutig nicht bei Dir bin, ist dass wir uns mit der Entwicklung von autonomen Waffensystemen abfinden müssen, weil wir eh nichts ändern können. Ich glaub wir können weit mehr als wir ahnen, insbesondere als starke (1E9) community :slight_smile:

2 Like

Dann müssen wir uns grundsätzlich die Frage stellen ob wir autonome technische Systeme wollen, oder nicht. Das Ding wird eingesetzt und tun was die Schaffer hinein designen.

Aus technischer Sicht halte ich die Boston Dynamics Maschinen für weit weniger gefährlich als wirklich dumme mini dronen, low-cost, in Masse mit trackern und kleinen Sprengsätzen bestückt. Da ist wirklich nicht viel KI nötig um richtig üble Dinge mit Spielzeug anzustellen.

Ich kann leider nicht verstehen was man denn überhaupt aktiv tun kann um diese dual-use Themen grundsätzlich einen Spin in die eher „positive“ Richtung zu geben. Klar es kommt auf Werte, Gesellschaftlichen Diskurs etc an. Aber nicht nur in einem Land, denn oftmals ist das was hier im Schlechten getan wird auch nur reaktion (siehe autonome Killerdronen). Und dann sind wir wieder beim balance of powers im Größeren Kontext um Übergriffe zu vermeiden.

Vielleicht sind Menschen und Menschheit einfach noch zu affig, im wahrsten Sinne des Wortes und müssen sich immer wieder mal die Köpfe einschlagen. Auch auf die Gefahr hin, dass mehr zu Grunde geht als nur ein paar Köpfe…

Ein anderes Spiel als es zB mit Nordkorea, wie schon erwähnt, getan wird – someone seriously needs to hack the game!

3 Like

Jaaaaa, mit den Dronen hast Du vollkommen recht. Genau das wundert mich seit Jahren, dass damit noch nicht mehr angestellt wurde. Mir sind nur der Angriff auf Maduro bekannt sowie die vermutete Sprengung des ukrainischen Waffenlagers. Aber selbst die beiden Aktionen waren von der Politik organisiert und nicht von der Zivilgesellschaft. Also entweder gibt es noch viel mehr solcher Attacken, die aber verschwiegen werden, um Nachahmer zu vermeiden, oder die Menschheit ist gar nicht so schlimm wie alle behaupten.

Und stell Dir vor, es wäre wirklich so, krasse Forscher fänden plötzlich heraus, dass Menschen eigentlich ganz cool sind und grundsätzlich lieber kuscheln als in Kabul Kinder zu sprengen!? Das wäre ja das Ende der Rüstungsindustrie und würde tausende Arbeitsplätze kosten - soweit darf es nicht kommen :wink:

3 Like

Das Thema ist generell wirklich interessant weil es die gesamte Menschheit betrifft und das Potenzial hat die moderne Kriegsführung zu prägen. Was ich mich frage ist, welche Staaten davon profitieren und wie sich die Übermacht heutiger Kriegsnationen (USA und co) ändert. Werden schwächere Staaten profitieren oder wird es sich am Ende auf „1984-Nationen“ konzentrieren weil sich Staaten zusammenschließen müssen?

Grundsätzlich finde ich es sehr beunruhigend, dass Staaten wie China ihre Bevölkerung quasi voll-überwachen und dass es autonome Drohnen mit Sprengstoffpaketen gibt, die potenziell per Gesichtserkennung oder anderen diskriminierenden Merkmalen losschlagen können. Es gibt ja auch den use case der Repression. Wenn du dich nicht ans Gesetz hälst, wird das nicht nur getrackt, sondern evtl. kann man auch die Exekutive zu einem gewissen Grad automatisieren. Falls du Dissident bist, darfst du dann mit dem Gefühl leben, dass man dein Gesicht in die Datenbank von autonomen Waffen füttern kann. Nice!

Zu guter Letzt ist das Aufrüsten von eigentlich großartigen autonomen Devices, wie Fahrzeugen, Robotern, Drohnen usw. mit Waffen aller Art doch quasi gottgegeben. Damit meine ich gar nicht unbedingt Terroranschläge (man ist auch beim 3D Druck von Millionen illegaler Selbstdruckwaffen ausgegangen aber der Schaden ist noch überschaubar). Die Technologie für datenbasierte Entscheidungen ist einfach viel zu attraktiv für das Militär als dass man sich dieses Potenzial entgehen lässt. Es bleibt zu hoffen, dass diese Waffen sich gegenseitig in Schach halten werden…
Aber wie andere Foristen schon schrieben, es ist traurig, dass diese sehr mächtige Technologie, die so viel Gutes in fast allen Lebensbereichen bewirken kann (Medikamentenforschung, Materialforschung, you name it) auch so viel militärisches Potenzial bietet.

Ich selbst bin trotzdem dafür die KI-Technologie stark voranzutreiben und die militärischen Use Cases so gut es geht einzudämmen. Meine Hoffnung, dass sowas nachhaltig funktioniert ist sehr gering aber der Nutzen für die Menschheit ist trotzdem so gewaltig, dass man nicht aus Risikoscheue einfach aufhören sollte daran zu arbeiten (was ebenfalls völlig utopisch wäre weil das Potenzial einfach zu groß ist).

Bin gespannt was ihr dazu denkt. Kann man Nutzen und Risiko bei diesem Thema wirklich richtig abwägen?

3 Like

Ich fürchte, das kommt erst noch. Noch braucht es zumindest ein gewisses Grundwissen in Technik, um eine Billo-Drohne mit Waffen auszurüsten oder in eine Selbstmord-Bombe umzubauen. Aber es wird halt wirklich sehr schnell, sehr viel einfacher.

3 Like

Nun, es gibt durchaus die Annahme, dass sich das Kräfteverhältnis zumindest in einem gewissen Maße verschieben könnte. Kleine Länder mit viel Geld könnten durch autonome Waffen – und insbesondere Drohnen – plötzlich eine gewaltige militärische Schlagkraft und Reichweite entwickeln, ohne viele Soldaten zu haben. Großbritannien, das flächenmäßig eigentlich recht klein ist, wirft daher gerade riesige Summen in die Forschung. Aber auch die Ukraine und Singapur sind angeblich stark investiert.

1 Like

Wir hatten auf 1E9 hier mal einen Interessanten Link zur Zukunft der Kriegsführung. Während man häufig an schweres Material denkt finde ich die Perspektive von „Konflikt als human“ spannend und die Konsequenzen, die in dem Video diskutiert werden.

Das Video nochmals direkt verlinkt und bei Minute 13 in etwa gehts los über die „human domain“ als „most important one“, weil jeder Konflikt menschengetrieben ist. Da ists dann egal ob AIs oder autonome Systeme sich die Metallköpfe einschlagen. Beinflussung von Menschen und deren „Wille“ ist der Schlüssel…

Aus der Perspektive ist es denke ich wichtig low-cost und verfügbares Kriegsmaterial zu sehen und einzuschätzen.

2 Like

Es würde ja schon reichen, eine unbewaffnete Drone mit entsprechendem Gewicht oder Geschwindigkeit auf das Ziel scheppern zu lassen. Aber selbst davon habe ich quasi noch nie gehört. Und die Skills „des einfachen Mannes“ würde ich nicht so gering schätzen, wenn man alleine mal überlegt, was Kaufhauserpresser „Dagobert“ 20 Jahre vor den ersten Youtube-Tutorials hinbekommen hat. Bei mir verhärtet sich der Verdacht, das Menschen gar nicht so böse sind, wie immer behauptet wird :slight_smile:

2 Like

Wenn ein Akteur in seinem Arsenal sehr autonome und deswegen sehr schnell handelnde Systeme hat, dann kann man diesen Systemen eigentlich nur beikommen mit ähnlich schnell handelnden Verteidigungssystemen“ sagt die Expertin. Wo ist das Problem? Die Systeme sind doch totsicher!

1 Like