KI-Kriegsführung

Lavender, Where’s Daddy und The Gospel: Israel setzt im Krieg gegen Gaza auf diverse KI-Systeme

Während zahlreiche Quellen den Einsatz von KI in der israelischen Kriegführung bestätigen, streiten die IDF dies vehement ab. © DALL-E
Während zahlreiche Quellen den Einsatz von KI in der israelischen Kriegführung bestätigen, streiten die IDF dies vehement ab. © DALL-E
Startup Interviewer: Gib uns dein erstes AI Interview Startup Interviewer: Gib uns dein erstes AI Interview

Es gab Vermutungen über den Einsatz von künstlicher Intelligenz im Gaza-Krieg. Sechs israelische Geheimdienstoffiziere bestätigten nun den Einsatz einer KI-Datenbank mit dem Codenamen „Lavender“ im Gazastreifen – sie wollen selbst mit dem Tool zu tun gehabt haben. Insgesamt sollen durch die Unterstützung der KI 37.000 Hamas-Ziele identifiziert worden sein. Die israelische Armee verneint den Einsatz von KI in der Kriegsführung.

Menschliches Personal als „Stempel“ für die Entscheidungen der Maschine

Wie unter anderem „+972” und „The Guardian” berichteten, hat die israelische Armee ein KI- Programm mit dem Namen Lavender entwickelt. Dieses soll bereits während des aktuellen Krieges gegen den Gazastreifen eingesetzt worden sein und zur Generierung von Tötungszielen gedient haben – vor allem zu Beginn des Krieges. Darüber hinaus heißt es, dass die israelische Armee Zehntausende von Menschen im Gazastreifen als verdächtig eingestuft und mithilfe eines KI-Zielsystems Palästinenser bombardiert hat. Menschliches Personal, so wird berichtet, diente oft nur als „Stempel“ für die Entscheidungen der Maschine. Den Quellen nach wurden die Entscheidungen der KI nicht gründlich geprüft, Genehmigungen wurden oft pauschal erteilt, sobald das Opfer männlich war. Man habe sich normalerweise nur etwa „20 Sekunden“ mit jedem Ziel befasst. Auch soll bekannt gewesen sein, dass das System in ungefähr zehn Prozent der Fälle „Fehler” begeht und damit auch Zielpersonen markiert, die in keiner Verbindung zu militanten Gruppen standen.

„The Human-Machine Team“: Buch über Synergie zwischen menschlicher und künstlicher Intelligenz

Das im Jahr 2021 veröffentlichte Buch „The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World“ wurde nachweislich vom derzeitigen Kommandeur der israelischen Eliteeinheit 8200 geschrieben. Als Autor agiert er unter dem Pseudonym „Brigadier General Y.S.” In seinem Buch plädiert er dafür, eine Maschine zu entwickeln, die in kurzer Zeit Tausende militärische Angriffsziele ermitteln kann, indem sie riesige Datenmengen verarbeitet. In den Augen von Brigadier General Y.S. würde eine derartige Technologie den „menschlichen Engpass sowohl bei der Lokalisierung der neuen Ziele als auch bei der Entscheidungsfindung zur Genehmigung der Ziele“ beseitigen, schreibt er.

Es wurden bewusst Häuser bombardiert

Formal ist das Lavender-System so konzipiert, dass es alle Verdachtsfälle kennzeichnet. Dabei war zweitrangig, ob es sich um Hamas-Aktivisten handelte oder nicht, verriet ein Geheimdienst-Agent gegenüber +972 und dem israelische unabhängige Nachrichtenportal Local Call. „Im Gegenteil, die Israel Defense Forces (IDF) haben sie ohne zu zögern auch Häuser bombardiert, als erste Option. Es ist viel einfacher, das Haus einer Familie zu bombardieren. Das System ist darauf ausgelegt, in solchen Situationen nach ihnen zu suchen”, sagte er.

Diverse KI-Systeme im Krieg für verschiedene Zielsetzungen

Ein weiteres automatisiertes System mit dem Namen „Where’s Daddy?” soll man ebenso gezielt eingesetzt haben, um Zielpersonen aufzuspüren und diese mit Bomben abzuschießen, sobald sie in ihre Wohnhäuser betreten haben. Das KI-System „The Gospel“ wiederum habe Gebäude und Strukturen markiert, von denen aus Militante agierten – im Unterschied zu Lavender, das konkret nach Menschen suchte, die es auf die Tötungsliste setzen konnte. Erstmalig soll die israelische Armee in den ersten Wochen beschlossen haben, dass für jeden von Lavender markierten Hamas-Aktivisten bis zu 15 bis 20 Zivilist:innen getötet werden dürfen. Sollte es sich bei dem Ziel um einen hochrangigen Hamas-Funktionär gehandelt haben, etwa einem Bataillon- oder Brigadekommandeur, wollte man sogar die Tötung von mehr als 100 Zivilist:innen als Kollateralschaden in Kauf nehmen.

Israel Defense Forces streiten Einsatz von KI ab

Die IDF meldeten sich mit einem Statement in Reaktion auf die Berichterstattung im Guardian zu Wort und streiten ab, KI zu nutzen, um terroristische Akteure ausfindig zu machen oder anzugreifen. „Entgegen anders lautenden Behauptungen verwenden die IDF kein System der künstlichen Intelligenz, das terroristische Akteure identifiziert oder versucht vorherzusagen, ob eine Person ein Terrorist ist.” Weiters heißt es: „Bei dem System (…) handelt es sich nicht um ein System, sondern lediglich um eine Datenbank, deren Zweck es ist, nachrichtendienstliche Quellen miteinander zu vergleichen, um aktuelle Informationen über die militärischen Akteure terroristischer Organisationen zu erhalten.“

Dall-E ermöglicht nachträgliche Bildbearbeitung

Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Powered by Dieser Preis-Ticker beinhaltet Affiliate-Links zu Bitpanda.

Deep Dives

Austrian Startup Investment Tracker

Die Finanzierungsrunden 2024

#glaubandich-Challenge 2024

Der größte Startup-Wettbewerb Österreichs mit Top VC-Unterstützung

Podcast: Mit den smartesten Köpfen im Gespräch

Der Podcast von Trending Topics

2 Minuten 2 Millionen | Staffel 11

Die Startups - die Investoren - die Deals - die Hintergründe

The Top 101

Die besten Startups & Scale-ups Österreichs im großen Voting

BOLD Community

Podcast-Gespräche mit den BOLD Minds

IPO Success Stories

Der Weg an die Wiener Börse

Weiterlesen