Britische Forscher sagen voraus, für welche Verbrechen Künstliche Intelligenz genutzt werden wird

Die Entwicklung von Künstlicher Intelligenz geht rasch voran. Lernende Computersysteme können immer mehr. Das eröffnet auch Kriminellen neue Möglichkeiten. Einige britische Forscher haben nun versucht, eine Einschätzung zu treffen, auf welche KI-Verbrechen wir uns in den kommenden Jahren vorbereiten sollten. Ganz oben stehen Deepfakes und selbstfahrende Autos als Terrorwaffen.

Von Michael Förtsch

Künstliche Intelligenz macht jetzt schon vieles möglich, was vorher schwer vorstellbar war. Sie sorgt dafür, dass Fahrzeuge selbstständig ihren Weg finden, regelt Verkehr in Städten, hilft bei der Diagnose von Krankheiten und sogar der Entwicklung von neuen Medikamenten und Technologien. Aber natürlich ist Künstliche Intelligenz keine Heilstechnologie, sondern lässt sich auch für Schindluder und Verbrechen missbrauchen. Aus diesem Grund warnen seit Jahren beispielsweise Elon Musk, vor allem aber verschiedene KI-Forscher davor, die Entwicklung von lernenden Software-Systemen allzu sorglos voranschreiten zu lassen – und fordern mehr Regulierung und Auflagen. Laut einer Studie des University College London, die im Rahmen eines Workshop des Computerwissenschaftlers Lewis Griffin ausgearbeitet wurde, wird Künstliche Intelligenz in den nächsten Jahren wohl zunehmend für Verbrechen genutzt werden.

„Künstliche Intelligenz kann auf vielfältige Weise in Verbrechen verwickelt werden“, heißt es in der Abhandlung, die das Team im Fachblatt Crime Science veröffentlicht hat . Die 31 Wissenschaftler und Wissenschaftlerinnen haben zahlreiche Möglichkeiten austariert, wie Künstliche Intelligenz kriminell eingesetzt werden könnte. Darunter die Nutzung von selbstfahrenden Autos und automatisierten Drohnen als Terrorwaffen; die Vorhersage und Analyse der Verhaltensweisen von Personen oder Organisationen, um ersichtliche Schwachstellen für Phishing oder Betrug auszumachen; die Erstellung von Fake News und Deepfakes, um sie bei Erpressung und Rufmordkampagnen zu missbrauchen. Auch die Anwendung von Künstlicher Intelligenz zum Knacken von Passwörtern und zur Umgehung von digitalen Sicherheitsmechanismen findet sich auf der Liste. Selbst Einbrecher-Roboter und Künstliche Intelligenzen, die Kunstwerke wie Malereien und Musik fälschen, falsche Bewertungen auf Empfehlungsportalen streuen oder den Aktienmarkt manipulieren, seien laut den Forschern ebenso vorstellbar.

„Alternativ dazu können KI-Systeme selbst das Ziel einer kriminellen Aktivität sein“, schreibt das Forscherteam weiter. Unter anderem könnten Systeme, die eine Künstliche Intelligenz nutzen, attackiert werden, weil sie „einem Verbrechen im Wege stehen“ oder für dessen Aufdeckung genutzt werden könnten. Gemeint sind digitale Infrastrukturen, die Geldwäsche oder Angriffe auf Computersysteme verhindern sollen. Gleichsam könnten Gesichtserkennungssysteme gekapert werden, um Fahndungen zu entgehen oder andere Menschen in Misskredit zu bringen. Aber es könnten auch Schwachstellen in Empfehlungssystem wie von YouTube ausgenutzt werden, um massiv Propaganda zu streuen.

Deepfakes sind besonders brisant

Nachdem das Team die Möglichkeiten der KI-Kriminalitätsakte ausgearbeitet hatte, versucht es zu ermitteln, wie die Gefährlichkeit dieser Übergriffe einzustufen ist – und zwar über die nächsten 15 Jahre. Dafür bestimmten sie das potentielle Ausmaß des Schadens, den möglichen Profit und den Aufwand der Attacke – und wie schwer es wäre, eine solche Attacke zu stoppen oder ihr entgegen zu steuern. Dementsprechend sortierten sie die KI-Verbrechen in Kategorien wie „Gefahr hoch“, „mittel“ und „niedrig“ ein. Wobei die Forscher anmerken, dass verschiedene Angriffe auch miteinander verknüpft werden können. Beispielsweise Fake News und Deepfakes oder KI-gestützte Einbrüche und das Ausbooten von Gesichtserkennungssystemen. Und natürlich „kann für einen Angriff auf ein KI-System selbst ein KI-System erforderlich sein“, meinen die Autoren.

Werde jetzt Mitglied von 1E9!

Als Mitglied unterstützt Du unabhängigen, zukunftsgerichteten Tech-Journalismus, der für und mit einer Community aus Idealisten, Gründerinnen, Nerds, Wissenschaftlerinnen und Kreativen entsteht. Außerdem erhältst Du vollen Zugang zur 1E9-Community, exklusive Newsletter und kannst bei 1E9-Events dabei sein. Schon ab 3 Euro (+ MwSt) im Monat!

Jetzt Mitglied werden!

Nach ihrer Auswertung kamen die Forscher zum Schluss, dass KI-gestützte Fälschungen – also Deepfakes – von Videos und Tonaufnahmen wohl mit die gefährlichsten KI-Anwendungen wären. Denn dafür sehen sie „ein breites Spektrum krimineller Anwendungsfälle“ – sei es, um Betrugsfälle einzufädeln oder eben Personen des öffentlichen Lebens zu diskreditieren. Zumal es wohl über einen langen Zeitraum nur schwer möglich sein dürfte, Deepfakes zielsicher und schnell zu erkennen. Ebenso besorgniserregend finden die Forscher jedoch die Möglichkeit, selbstfahrende Autos in Waffen zu verwandeln. Fahrzeuge seien schließlich schon immer genutzt worden, um damit Menschen zu töten. Sei es, um Menschen zu überfahren oder in dem sie mit Bomben bestückt werden. „Autonome Fahrzeuge würden potenziell eine Ausweitung des Fahrzeugterrorismus ermöglichen“, schreiben die Workshop-Teilnehmer. Ein Terrorist könnte, wenn er eine Möglichkeit findet, die Fahrzeuge zu kapern, nicht nur einen Angriff, sondern gleich mehrere durchführen.

Ebenso machbar wie fatal schätzen die Wissenschaftler die Option ein, dass Künstliche Intelligenz eine neue Art von Phishing erlaubt. Beispielsweise in dem KI-Systeme speziell auf Zielpersonen zugeschnittene E-Mails und Nachrichten schicken, um Zugangsdaten, Kontoinformationen und belastende Informationen zu kommen. Die Systeme könnten „aktiv lernen, um herauszufinden, was funktioniert, in dem sie Details der Botschaften variieren“, heißt es in der Abhandlung. Auch Angriffe auf und die Übernahme von KI-Systemen, um Stromausfälle und ein Verkehrschaos auszulösen sei im Bereich des Möglichen. Und selbst, dass KI-Systeme „großangelegte Erpressungen“ mit peinlichen Fotos, Nachrichtenverläufen oder anderen „spezifischen Verwundbarkeiten“ durchführen, wäre realistisch.

Die Manipulation von Finanzmärkten, KI-Cyberangriffe oder das Kapern von Angriffsdrohnen beurteilen die Forscher als theoretisch machbar, aber schwierig. Das gilt auch für das Austricksen von Gesichtserkennungssystemen. Als eher niedrig sehen sie die Gefahr dafür, dass irgendwann Roboter in Wohnungen einbrechen oder Künstliche Intelligenzen im großen Stile Kunst fälschen. Die Forscher merken jedoch auch an, dass ihre Ergebnisse „nur spekulativ sind“ und nur ihre eigenen Erfahrungen widerspiegeln. Trotzdem könnten sie eine „nützliche Momentaufnahme“ darstellen, die helfen könnte, sich auf die potentiellen Entwicklungen der kommenden Jahre vorzubereiten.

Teaser-Bild: Getty Images

2 „Gefällt mir“