“Lavender”: Die KI-Maschine, die Israels Bomben-Amoklauf auf Gaza steuert

„Lavender“: Die KI-Maschine, die Israels Bomben-Amoklauf auf Gaza steuert

Wir präsentieren eine Übersetzung dieser Untersuchung von Yuval Abraham, die am 3.4.2024 auf +972Mag erschien.

(Bild: +972Mag)

Im Jahr 2021 wurde ein Buch mit dem Titel „The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World“ auf Englisch unter dem Pseudonym „Brigadier General Y.S.“ veröffentlicht. Darin plädiert der Autor – ein Mann, bei dem es sich nachweislich um den derzeitigen Kommandeur der israelischen Eliteeinheit 8200 handelt – für die Entwicklung einer speziellen Maschine, die in kürzester Zeit riesige Datenmengen verarbeiten kann, um Tausende potenzieller „Ziele“ für militärische Angriffe in der Hitze eines Krieges zu generieren. Eine solche Technologie, so schreibt er, würde den „menschlichen Engpass sowohl bei der Lokalisierung der neuen Ziele als auch bei der Entscheidungsfindung zur Genehmigung der Ziele“ beseitigen, wie er es nennt.

Wie sich herausstellt, gibt es eine solche Maschine tatsächlich. Eine neue Untersuchung des Magazins +972 und Local Call zeigt, dass die israelische Armee ein auf künstlicher Intelligenz basierendes Programm mit dem Namen „Lavender“ entwickelt hat, das hier zum ersten Mal vorgestellt wird. Laut sechs israelischen Geheimdienstoffizieren, die alle während des aktuellen Krieges gegen den Gazastreifen in der Armee gedient haben und aus erster Hand mit dem Einsatz von KI zur Generierung von Tötungszielen zu tun hatten, hat Lavender eine zentrale Rolle bei den beispiellosen Bombardierungen von Palästinensern gespielt, insbesondere in der Anfangsphase des Krieges. Den Quellen zufolge war der Einfluss von Lavender auf die Operationen des Militärs so groß, dass sie die Ergebnisse der KI-Maschine im Wesentlichen so behandelten, „als wären sie eine menschliche Entscheidung“.

Embed from Getty Images

Offiziell ist das Lavender-System dazu gedacht, alle mutmaßlichen Aktivisten der militärischen Flügel der Hamas und des Palästinensischen Islamischen Dschihad (PIJ), einschließlich derjenigen mit niedrigem Rang, als potenzielle Bombenziele zu markieren. Die Quellen erklärten gegenüber +972 und Local Call, dass sich die Armee in den ersten Wochen des Krieges fast vollständig auf Lavender verließ, das bis zu 37.000 Palästinenser als mutmaßliche Kämpfer – und ihre Häuser – für mögliche Luftangriffe registrierte.

In der Anfangsphase des Krieges erteilte die Armee den Offizieren pauschal die Genehmigung, Lavenders Tötungslisten zu übernehmen, ohne gründlich zu prüfen, warum die Maschine diese Entscheidungen traf, oder die nachrichtendienstlichen Rohdaten zu untersuchen, auf denen sie beruhten. Eine Quelle gab an, dass menschliches Personal oft nur als „Stempel“ für die Entscheidungen der Maschine diente, und fügte hinzu, dass sie sich normalerweise nur etwa „20 Sekunden“ mit jedem Ziel befassten, bevor sie einen Bombenangriff genehmigten – nur um sicherzustellen, dass das von Lavender markierte Ziel männlich ist. Und das, obwohl sie wissen, dass das System in etwa 10 Prozent der Fälle „Fehler“ macht und dafür bekannt ist, dass es gelegentlich Personen markiert, die nur eine lockere Verbindung zu militanten Gruppen oder gar keine Verbindung haben.

Darüber hinaus griff die israelische Armee die Zielpersonen systematisch an, wenn sie sich in ihren Häusern aufhielten – in der Regel nachts, wenn ihre gesamte Familie anwesend war – und nicht während einer militärischen Aktivität. Den Quellen zufolge lag dies daran, dass es aus nachrichtendienstlicher Sicht einfacher war, die Personen in ihren Privathäusern aufzuspüren. Zusätzliche automatisierte Systeme, darunter ein System mit dem Namen „Where’s Daddy?“ („Wo ist Papa?“), das hier zum ersten Mal enthüllt wird, wurden gezielt eingesetzt, um die Zielpersonen aufzuspüren und Bombenanschläge zu verüben, wenn sie die Wohnhäuser ihrer Familien betreten hatten.

Das Ergebnis ist, wie die Quellen bezeugen, dass Tausende von Palästinensern – die meisten von ihnen Frauen und Kinder oder Menschen, die nicht an den Kämpfen beteiligt waren – durch israelische Luftangriffe ausgelöscht wurden, insbesondere in den ersten Wochen des Krieges, aufgrund der Entscheidungen des KI-Programms.

„Es ist viel einfacher, das Haus einer Familie zu bombardieren. Das System ist darauf ausgelegt, in solchen Situationen nach ihnen zu suchen“

„Wir waren nicht daran interessiert, [Hamas]-Aktivisten nur dann zu töten, wenn sie sich in einem militärischen Gebäude aufhielten oder an einer militärischen Aktivität beteiligt waren“, sagte A., ein Nachrichtenoffizier, gegenüber +972 und Local Call. „Im Gegenteil, die IDF haben sie ohne zu zögern in Häusern bombardiert, als erste Option. Es ist viel einfacher, das Haus einer Familie zu bombardieren. Das System ist darauf ausgelegt, in solchen Situationen nach ihnen zu suchen“.

Die Lavender-Maschine gesellt sich zu einem anderen KI-System, „The Gospel“, über das in einer früheren Untersuchung von +972 und Local Call im November 2023 sowie in eigenen Veröffentlichungen des israelischen Militärs Informationen veröffentlicht wurden. Ein grundlegender Unterschied zwischen den beiden Systemen liegt in der Definition des Ziels: Während „The Gospel“ Gebäude und Strukturen markiert, von denen aus die Armee behauptet, dass Militante dort operieren, markiert „Lavender“ Menschen – und setzt sie auf eine Tötungsliste.

Embed from Getty Images

Den Quellen zufolge zog es die Armee außerdem vor, bei Angriffen auf mutmaßliche militante Jugendliche, die von Lavender markiert wurden, nur ungelenkte Raketen zu verwenden, die gemeinhin als „dumme“ Bomben bekannt sind (im Gegensatz zu „intelligenten“ Präzisionsbomben), die ganze Gebäude mitsamt ihren Bewohnern zerstören und erhebliche Verluste verursachen können. „Man will keine teuren Bomben an unwichtige Leute verschwenden – das ist sehr teuer für das Land und es gibt einen Mangel [an diesen Bomben]“, sagte C., einer der Geheimdienstler. Eine andere Quelle sagte, dass sie persönlich die Bombardierung von „Hunderten“ von Privathäusern mutmaßlicher Junior-Agenten, die von Lavender markiert wurden, genehmigt hätten, wobei bei vielen dieser Angriffe Zivilisten und ganze Familien als „Kollateralschaden“ getötet wurden.

In einem noch nie dagewesenen Schritt, so zwei der Quellen, habe die Armee in den ersten Wochen des Krieges beschlossen, dass für jeden von Lavender markierten Hamas-Aktivisten bis zu 15 oder 20 Zivilisten getötet werden dürfen; in der Vergangenheit habe das Militär bei der Ermordung von Kämpfern mit niedrigem Rang keine „Kollateralschäden“ zugelassen. Die Quellen fügten hinzu, dass die Armee für den Fall, dass es sich bei dem Ziel um einen hochrangigen Hamas-Funktionär im Rang eines Bataillons- oder Brigadekommandeurs handelte, bei mehreren Gelegenheiten die Tötung von mehr als 100 Zivilisten bei der Ermordung eines einzigen Kommandeurs genehmigte.

Die folgende Untersuchung ist nach den sechs chronologischen Phasen der hochautomatisierten Zielproduktion der israelischen Armee in den ersten Wochen des Gaza-Krieges gegliedert. Zunächst erläutern wir die Lavender-Maschine selbst, die mithilfe von KI Zehntausende von Palästinensern markierte. Zweitens enthüllen wir das „Where’s Daddy?“-System, das diese Zielpersonen aufspürte und der Armee signalisierte, wenn sie die Häuser ihrer Familien betraten. Drittens beschreiben wir, wie die „stummen“ Bomben ausgewählt wurden, um diese Häuser zu treffen.

Viertens erklären wir, wie die Armee die zulässige Anzahl von Zivilisten, die bei der Bombardierung eines Ziels getötet werden durften, lockerte. Fünftens stellen wir fest, wie eine automatische Software die Anzahl der Nichtkombattanten in den einzelnen Haushalten ungenau berechnet hat. Und sechstens zeigen wir, wie bei mehreren Gelegenheiten, wenn ein Haus angegriffen wurde, in der Regel nachts, das individuelle Ziel manchmal gar nicht im Haus war, weil die Militärs die Informationen nicht in Echtzeit überprüften.

Schritt 1: Erzeugung von Zielen

„Sobald man auf Automatik umschaltet, wird die Zielgenerierung verrückt.“

In der israelischen Armee bezog sich der Begriff „menschliche Zielperson“ in der Vergangenheit auf einen hochrangigen Militärangehörigen, der nach den Regeln der Abteilung für internationales Recht des Militärs in seinem Privathaus getötet werden kann, auch wenn Zivilisten in der Nähe sind. Nachrichtendienstliche Quellen erklärten gegenüber +972 und Local Call, dass in früheren Kriegen Israels solche menschlichen Ziele sehr sorgfältig gekennzeichnet wurden, da dies eine „besonders brutale“ Art war, jemanden zu töten – oft wurde neben dem Ziel auch eine ganze Familie getötet – und nur hochrangige militärische Befehlshaber in ihren Häusern bombardiert wurden, um den Grundsatz der Verhältnismäßigkeit nach internationalem Recht zu wahren.

Doch nach dem 7. Oktober – als von der Hamas angeführte Militante einen tödlichen Angriff auf südisraelische Gemeinden starteten, bei dem etwa 1.200 Menschen getötet und 240 entführt wurden – verfolgte die Armee den Quellen zufolge einen dramatisch anderen Ansatz. Im Rahmen der „Operation Eiserne Schwerter“ beschloss die Armee, alle Aktivisten des militärischen Flügels der Hamas als menschliche Ziele zu bezeichnen, unabhängig von ihrem Rang oder ihrer militärischen Bedeutung. Und das änderte alles.

Embed from Getty Images

Die neue Politik stellte den israelischen Geheimdienst auch vor ein technisches Problem. In früheren Kriegen musste ein Offizier, um die Ermordung einer einzelnen Zielperson zu genehmigen, einen komplexen und langwierigen „Belastungsprozess“ durchlaufen: Er musste Beweise dafür überprüfen, dass es sich bei der Person tatsächlich um ein hochrangiges Mitglied des militärischen Flügels der Hamas handelte, seinen Wohnort und seine Kontaktinformationen herausfinden und schließlich wissen, wann er in Echtzeit zu Hause war. Wenn die Liste der Zielpersonen nur ein paar Dutzend hochrangige Agenten umfasste, konnten die Geheimdienstmitarbeiter die Arbeit, die mit der Ermittlung und Lokalisierung dieser Personen verbunden war, allein bewältigen.

Als die Liste jedoch auf Zehntausende von Mitarbeitern niedrigerer Ränge erweitert wurde, sah sich die israelische Armee gezwungen, sich auf automatisierte Software und künstliche Intelligenz zu verlassen. Das Ergebnis, so die Quellen, war, dass die Rolle des menschlichen Personals bei der Inkriminierung von Palästinensern als Militärangehörige beiseite geschoben wurde und stattdessen die KI den Großteil der Arbeit erledigte. Laut vier der Quellen, die mit +972 und Local Call sprachen, hat Lavender – das entwickelt wurde, um menschliche Ziele im aktuellen Krieg zu schaffen – etwa 37.000 Palästinenser als mutmaßliche „Hamas-Kämpfer“, die meisten von ihnen Jugendliche, zur Ermordung markiert (der IDF-Sprecher bestritt die Existenz einer solchen Tötungsliste in einer Erklärung gegenüber +972 und Local Call).

„Wir wussten nicht, wer die Junior-Mitglieder waren, weil Israel sie [vor dem Krieg] nicht routinemäßig verfolgt hat“, erklärte der ranghohe Offizier B. gegenüber +972 und Local Call und erläuterte damit den Grund für die Entwicklung dieser besonderen Zielmaschine für den aktuellen Krieg. „Sie wollten, dass wir [die Junior-Mitglieder] automatisch angreifen können. Das ist der Heilige Gral. Sobald man auf Automatik umstellt, wird die Zielerstellung verrückt.“

„Wir haben Tausende von Menschen ausgeschaltet. Wir sind sie nicht einzeln durchgegangen – wir haben alles in automatische Systeme eingegeben, und sobald eine [der markierten Personen] zu Hause war, wurde sie sofort zum Ziel. Wir haben ihn und sein Haus bombardiert.“

Die Quellen sagten, dass die Genehmigung zur automatischen Übernahme der Tötungslisten von Lavender, die zuvor nur als Hilfsmittel eingesetzt worden waren, etwa zwei Wochen nach Kriegsbeginn erteilt wurde, nachdem Geheimdienstmitarbeiter die Genauigkeit einer Stichprobe von mehreren hundert vom KI-System ausgewählten Zielen „manuell“ überprüft hatten. Als diese Stichprobe ergab, dass die Ergebnisse von Lavender eine Genauigkeit von 90 Prozent bei der Identifizierung der Zugehörigkeit einer Person zur Hamas erreicht hatten, genehmigte die Armee den umfassenden Einsatz des Systems. Wenn Lavender eine Person als Hamas-Kämpfer einstufte, wurde die Armee im Wesentlichen aufgefordert, dies als Befehl zu behandeln, ohne unabhängig zu prüfen, warum die Maschine diese Entscheidung traf, oder die nachrichtendienstlichen Rohdaten zu untersuchen, auf denen sie basiert.

„Um 5 Uhr morgens kam [die Luftwaffe] und bombardierte alle Häuser, die wir markiert hatten“, sagte B.. „Wir haben Tausende von Menschen ausgeschaltet. Wir sind sie nicht einzeln durchgegangen – wir haben alles in automatische Systeme eingegeben, und sobald eine [der markierten Personen] zu Hause war, wurde sie sofort zum Ziel. Wir haben ihn und sein Haus bombardiert.“

Embed from Getty Images

„Es war für mich sehr überraschend, dass wir gebeten wurden, ein Haus zu bombardieren, um einen Fußsoldaten zu töten, dessen Bedeutung in den Kämpfen so gering war“, sagte eine Quelle über den Einsatz von künstlicher Intelligenz zur Markierung mutmaßlich rangniedriger Kämpfer. „Ich nannte diese Ziele ‚Müllziele‘. Dennoch fand ich sie ethischer als die Ziele, die wir nur zur ‚Abschreckung‚ bombardierten – Hochhäuser, die evakuiert und umgestürzt werden, nur um Zerstörung zu verursachen.“

Die tödlichen Folgen dieser Lockerung der Beschränkungen in der Anfangsphase des Krieges waren erschütternd. Nach Angaben des palästinensischen Gesundheitsministeriums in Gaza, auf die sich die israelische Armee seit Beginn des Krieges fast ausschließlich stützt, tötete Israel in den ersten sechs Wochen des Krieges bis zur Vereinbarung einer einwöchigen Waffenruhe am 24. November rund 15.000 Palästinenser – fast die Hälfte der bisherigen Todesopfer.

Je mehr Informationen und Vielfalt, desto besser

Die Lavender-Software analysiert die Informationen, die über die meisten der 2,3 Millionen Einwohner des Gazastreifens durch ein System der Massenüberwachung gesammelt wurden, und bewertet und stuft dann die Wahrscheinlichkeit ein, dass jede einzelne Person im militärischen Flügel der Hamas oder des PIJ aktiv ist. Quellen zufolge bewertet die Maschine fast jede einzelne Person im Gazastreifen auf einer Skala von 1 bis 100 und gibt damit an, wie wahrscheinlich es ist, dass es sich um einen Kämpfer handelt.

Lavender lernt, Merkmale bekannter Hamas- und PIJ-Aktivisten zu erkennen, deren Informationen als Trainingsdaten in die Maschine eingespeist wurden, und dann dieselben Merkmale – auch „Features“ genannt – in der allgemeinen Bevölkerung zu lokalisieren, erklärten die Quellen. Eine Person, die mehrere verschiedene belastende Merkmale aufweist, erreicht eine hohe Bewertung und wird damit automatisch zu einem potenziellen Ziel für ein Attentat.

In „The Human-Machine Team“, dem Buch, auf das zu Beginn dieses Artikels verwiesen wird, befürwortet der derzeitige Kommandant der Einheit 8200 ein solches System, ohne Lavender namentlich zu erwähnen. (Der Kommandant selbst wird ebenfalls nicht genannt, aber fünf Quellen in der Einheit 8200 haben bestätigt, dass der Kommandant der Autor ist, wie auch Haaretz berichtet). Der Kommandeur beschreibt das menschliche Personal als „Engpass“, der die Kapazität der Armee während einer Militäroperation einschränkt, und beklagt sich: „Wir [Menschen] können nicht so viele Informationen verarbeiten. Es spielt keine Rolle, wie viele Leute man damit beauftragt, während des Krieges Ziele zu produzieren – man kann immer noch nicht genug Ziele pro Tag produzieren.“

Die Lösung für dieses Problem, sagt er, ist künstliche Intelligenz. Das Buch bietet eine kurze Anleitung zum Bau einer „Zielmaschine“, ähnlich wie Lavender, die auf KI und Algorithmen des maschinellen Lernens basiert. Dieser Leitfaden enthält mehrere Beispiele für die „Hunderte und Tausende“ von Merkmalen, die die Bewertung einer Person erhöhen können, z. B. die Mitgliedschaft in einer Whatsapp-Gruppe mit einem bekannten Militanten, der Wechsel des Mobiltelefons alle paar Monate und der häufige Wechsel der Adresse.

„Je mehr Informationen und je mehr Vielfalt, desto besser“, schreibt der Kommandeur. „Visuelle Informationen, Informationen über Mobiltelefone, Verbindungen zu sozialen Medien, Informationen über das Schlachtfeld, Telefonkontakte, Fotos“. Während der Mensch diese Merkmale anfangs auswählt, so der Kommandeur weiter, wird die Maschine mit der Zeit selbständig Merkmale identifizieren. Auf diese Weise könnten die Streitkräfte „Zehntausende von Zielen“ erstellen, während die eigentliche Entscheidung, ob sie angegriffen werden sollen oder nicht, weiterhin von Menschen getroffen wird.

Das Buch ist nicht das einzige Mal, dass ein ranghoher israelischer Befehlshaber auf die Existenz von menschlichen Zielmaschinen wie Lavender hinweist. +972 und Local Call haben Aufnahmen einer privaten Vorlesung des Kommandanten des geheimen Zentrums für Datenwissenschaft und KI der Einheit 8200, „Oberst Yoav“, auf der KI-Woche der Universität Tel Aviv im Jahr 2023 erhalten, über die damals in den israelischen Medien berichtet wurde.

In dem Vortrag spricht der Kommandeur über eine neue, hochentwickelte Zielmaschine, die von der israelischen Armee eingesetzt wird und „gefährliche Personen“ anhand ihrer Ähnlichkeit mit bestehenden Listen bekannter Militanter erkennt, auf denen sie ausgebildet wurde. „Mit Hilfe des Systems ist es uns gelungen, die Kommandeure der Hamas-Raketenkommandos zu identifizieren“, sagte „Col. Yoav“ in dem Vortrag und bezog sich dabei auf die israelische Militäroperation im Mai 2021 in Gaza, bei der die Maschine zum ersten Mal eingesetzt wurde.

Präsentation der IDF (972Mag)
Präsentation der IDF (972Mag)

Die Vortragsfolien, die auch von +972 und Local Call zur Verfügung gestellt wurden, zeigen, wie die Maschine funktioniert: Sie wird mit Daten über bestehende Hamas-Kämpfern gefüttert, lernt, deren Merkmale zu erkennen, und bewertet dann andere Palästinenser danach, wie ähnlich sie den Kämpfern sind.

„Wir ordnen die Ergebnisse ein und bestimmen die Schwelle [für einen Angriff auf ein Ziel]“, sagte Oberst Yoav in dem Vortrag und betonte, dass „letztendlich Menschen aus Fleisch und Blut die Entscheidungen treffen“. Im Verteidigungsbereich legen wir, ethisch gesehen, großen Wert darauf. Diese Instrumente sollen [Geheimdienstmitarbeitern] helfen, ihre Grenzen zu überwinden“.

In der Praxis, so Quellen, die Lavender in den letzten Monaten eingesetzt haben, wurden jedoch menschliches Handeln und Präzision durch die Schaffung von Massenzielen und Tödlichkeit ersetzt.

Es gab keine „Null-Fehler-Politik“

B., ein ranghoher Offizier, der Lavender eingesetzt hat, erklärte gegenüber +972 und Local Call, dass die Offiziere im aktuellen Krieg nicht verpflichtet waren, die Einschätzungen des KI-Systems unabhängig zu überprüfen, um Zeit zu sparen und die Massenproduktion menschlicher Ziele ohne Hindernisse zu ermöglichen.

„Alles war statistisch, alles war sauber – es war sehr trocken“, sagte B.. Er merkte an, dass dieser Mangel an Überwachung zugelassen wurde, obwohl interne Überprüfungen zeigten, dass Lavenders Berechnungen nur in 90 Prozent der Fälle zutrafen; mit anderen Worten, es war im Voraus bekannt, dass 10 Prozent der menschlichen Ziele, die zur Ermordung vorgesehen waren, gar keine Mitglieder des militärischen Flügels der Hamas waren.

So erklärten Quellen, dass die Lavender-Maschine manchmal fälschlicherweise Personen markierte, die ähnliche Kommunikationsmuster wie bekannte Hamas- oder PIJ-Aktivisten aufwiesen – darunter Mitarbeiter der Polizei und des Zivilschutzes, Verwandte von Kämpfern, Bewohner, die zufällig einen Namen und Spitznamen hatten, der mit dem eines Kämpfers identisch war, und Bewohner des Gazastreifens, die ein Gerät benutzten, das einst einem Hamas-Mitglieder gehörte.

„Wie nahe muss eine Person der Hamas stehen, um [von einer KI-Maschine als] mit der Organisation verbunden zu sein? „Es ist eine vage Grenze. Ist eine Person, die kein Gehalt von der Hamas erhält, ihr aber bei allen möglichen Dingen hilft, ein Hamas-Agent? Ist jemand, der in der Vergangenheit in der Hamas war, aber heute nicht mehr dort ist, ein Hamas-Mitglied? Jedes dieser Merkmale – Eigenschaften, die eine Maschine als verdächtig einstufen würde – ist ungenau.“

„Selbst wenn man nicht sicher weiß, dass die Maschine richtig ist, weiß man, dass sie statistisch gesehen in Ordnung ist. Also macht man es.“

Ähnliche Probleme gibt es bei der Fähigkeit der Zielgeräte, das von einer für ein Attentat markierten Person benutzte Telefon zu ermitteln. „Im Krieg wechseln die Palästinenser ständig ihre Telefone“, sagte die Quelle. „Die Leute verlieren den Kontakt zu ihren Familien, geben ihr Telefon an einen Freund oder eine Frau weiter und verlieren es vielleicht. Es gibt keine Möglichkeit, sich zu 100 Prozent auf den automatischen Mechanismus zu verlassen, der bestimmt, welche [Telefon-]Nummer zu wem gehört.“

Den Quellen zufolge wusste die Armee, dass die minimale menschliche Überwachung diese Fehler nicht aufdecken würde. „Es gab keine ‚Null-Fehler‘-Politik. Fehler wurden statistisch behandelt“, sagte eine Quelle, die Lavender benutzte. „Aufgrund des Umfangs und der Größenordnung lautete das Protokoll: Selbst wenn man nicht sicher weiß, dass die Maschine richtig ist, weiß man, dass sie statistisch gesehen in Ordnung ist. Also macht man es.“

Embed from Getty Images

„Es hat sich bewährt“, sagte B., die führende Quelle. „Der statistische Ansatz hat etwas an sich, das einen auf eine bestimmte Norm und einen bestimmten Standard festlegt. Es gab eine unlogische Anzahl von [Bombenanschlägen] in dieser Operation. Das ist meiner Erinnerung nach beispiellos. Und ich habe viel mehr Vertrauen in einen statistischen Mechanismus als ein Soldat, der vor zwei Tagen einen Freund verloren hat. Jeder dort, auch ich, hat am 7. Oktober Menschen verloren. Die Maschine hat es eiskalt gemacht. Und das hat es leichter gemacht.“

Eine andere Geheimdienstquelle, die den Rückgriff auf die von Lavender erstellten Tötungslisten palästinensischer Verdächtiger verteidigte, argumentierte, dass es sich nur dann lohne, die Zeit eines Geheimdienstmitarbeiters zu investieren, um die Informationen zu überprüfen, wenn es sich bei der Zielperson um einen hochrangigen Hamas-Kommandeur handele. „Wenn es sich aber um einen jüngeren Kämpfer handelt, will man keine Arbeitskraft und Zeit investieren“, sagte er. „Im Krieg hat man keine Zeit, jedes Ziel zu belasten. Also ist man bereit, die Fehlermarge beim Einsatz künstlicher Intelligenz in Kauf zu nehmen, Kollateralschäden und den Tod von Zivilisten zu riskieren und damit zu leben, dass man aus Versehen angreift.“

B. sagte, der Grund für diese Automatisierung sei der ständige Drang, mehr Ziele für Attentate zu schaffen. „An einem Tag, an dem es keine Ziele gab [deren Merkmalseinstufung ausreichte, um einen Angriff zu genehmigen], griffen wir mit einer niedrigeren Schwelle an. Wir wurden ständig unter Druck gesetzt: ‚Bringt uns mehr Ziele‘. Sie schrien uns regelrecht an. Wir haben unsere Ziele sehr schnell erledigt“.

Er erläuterte, dass Lavender bei einer Herabsetzung der Einstufungsschwelle mehr Menschen als Ziele für Angriffe markieren würde. „In der Spitze schaffte es das System, 37.000 Personen als potenzielle menschliche Ziele zu identifizieren“, sagte B. „Aber die Zahlen änderten sich ständig, weil es davon abhängt, wo man die Messlatte für die Definition eines Hamas-Mitglieds ansetzt. Es gab Zeiten, in denen ein Hamas-Mitglied breiter definiert wurde, und dann begann die Maschine, uns alle Arten von Mitarbeitern des Zivilschutzes und Polizeibeamten zu liefern, für die es eine Schande wäre, Bomben zu verschwenden. Sie helfen der Hamas-Regierung, aber sie gefährden die Soldaten nicht wirklich.“

Eine Quelle, die mit dem militärischen Data-Science-Team zusammengearbeitet hat, das Lavender ausgebildet hat, sagte, dass auch Daten von Mitarbeitern des von der Hamas geleiteten Ministeriums für innere Sicherheit, die er nicht als Kämpfer betrachtet, in die Maschine eingespeist wurden. „Mich hat die Tatsache gestört, dass bei der Ausbildung von Lavender der Begriff ‚Hamas-Kämpfer‘ sehr locker verwendet wurde und dass auch Mitarbeiter des Zivilschutzes in den Trainingsdatensatz aufgenommen wurden“, sagte er.

Die Quelle fügte hinzu, dass selbst wenn man der Meinung ist, dass diese Menschen es verdienen, getötet zu werden, das Training des Systems auf der Grundlage ihrer Kommunikationsprofile die Wahrscheinlichkeit erhöht, dass Lavender versehentlich Zivilisten auswählt, wenn seine Algorithmen auf die allgemeine Bevölkerung angewendet werden. „Da es sich um ein automatisches System handelt, das nicht manuell von Menschen bedient wird, ist die Bedeutung dieser Entscheidung dramatisch: Es bedeutet, dass man viele Menschen mit einem zivilen Kommunikationsprofil als potenzielle Ziele einbezieht.“

„Wir haben nur überprüft, ob es sich bei der Zielperson um einen Mann handelt“.

Das israelische Militär weist diese Behauptungen rundweg zurück. In einer Erklärung gegenüber +972 und Local Call bestritt der IDF-Sprecher, dass künstliche Intelligenz eingesetzt wird, um Zielpersonen zu belasten, und sagte, es handele sich lediglich um „Hilfsmittel, die die Beamten bei der Ermittlung unterstützen“. Die Erklärung fuhr fort: „In jedem Fall ist eine unabhängige Prüfung durch einen [nachrichtendienstlichen] Analysten erforderlich, der verifiziert, dass die identifizierten Ziele legitime Angriffsziele sind, in Übereinstimmung mit den Bedingungen, die in den IDF-Direktiven und im internationalen Recht festgelegt sind.“

Quellen sagten jedoch, dass das einzige menschliche Überwachungsprotokoll vor der Bombardierung der von Lavender markierten Häuser mutmaßlicher „Junior“-Kämpfer darin bestand, eine einzige Überprüfung durchzuführen: sicherzustellen, dass das von der KI ausgewählte Ziel männlich und nicht weiblich ist. In der Armee ging man davon aus, dass, wenn das Ziel eine Frau war, die Maschine wahrscheinlich einen Fehler gemacht hatte, weil es in den Reihen der militärischen Flügel von Hamas und PIJ keine Frauen gibt.

Embed from Getty Images

„Ein Mensch musste [das Ziel] nur ein paar Sekunden lang überprüfen“, sagte B. und erklärte, dass dies zum Protokoll wurde, nachdem er festgestellt hatte, dass das Lavender-System die meiste Zeit „richtig lag“. „Anfangs haben wir Kontrollen durchgeführt, um sicherzustellen, dass die Maschine nicht verwirrt wird. Aber irgendwann verließen wir uns auf das automatische System und überprüften nur noch, ob es sich bei der Zielperson um einen Mann handelte – das reichte. Es dauert nicht lange, um festzustellen, ob jemand eine männliche oder eine weibliche Stimme hat“.

Für die Überprüfung, ob es sich um eine männliche oder weibliche Person handelt, würde ich im aktuellen Krieg 20 Sekunden pro Zielperson investieren und jeden Tag Dutzende davon durchführen“, so B.. Ich hatte als Mensch keinerlei Mehrwert, außer dass ich ein Gütesiegel war. Das sparte eine Menge Zeit. Wenn [die Zielperson] im automatischen Mechanismus auftauchte und ich prüfte, ob es sich um einen Menschen handelte, gab es die Erlaubnis, ihn zu bombardieren, vorbehaltlich einer Prüfung der Kollateralschäden.“

In der Praxis bedeutete dies, dass es für Zivilisten, die von Lavender irrtümlich markiert wurden, keinen Überwachungsmechanismus gab, um den Fehler zu entdecken. Laut B. trat ein häufiger Fehler auf, „wenn die [Hamas]-Zielperson [ihr Telefon] ihrem Sohn, ihrem älteren Bruder oder einfach einem beliebigen Mann gab. Diese Person wird dann in ihrem Haus mit ihrer Familie bombardiert. Das kam häufig vor. Das waren die meisten Fehler, die durch Lavender verursacht wurden“, sagte B..

Schritt 2: Verknüpfung der Ziele mit den Familiemhäusern

„Die meisten der getöteten Menschen waren Frauen und Kinder“.

Der nächste Schritt im Attentatsverfahren der israelischen Armee besteht darin, herauszufinden, wo die Ziele, die Lavender generiert, angegriffen werden sollen.

In einer Erklärung gegenüber +972 und Local Call erklärte der IDF-Sprecher als Reaktion auf diesen Artikel, dass „die Hamas ihre Kämpfer und militärischen Einrichtungen im Herzen der Zivilbevölkerung platziert, die Zivilbevölkerung systematisch als menschliche Schutzschilde benutzt und die Kämpfe von zivilen Strukturen aus führt, einschließlich sensibler Orte wie Krankenhäuser, Moscheen, Schulen und UN-Einrichtungen. Die IDF sind an das Völkerrecht gebunden und handeln danach, indem sie ihre Angriffe nur auf militärische Ziele und Militärangehörige richten“.

Die sechs Quellen, mit denen wir sprachen, bestätigten dies bis zu einem gewissen Grad und erklärten, dass das ausgedehnte Tunnelsystem der Hamas absichtlich unter Krankenhäusern und Schulen hindurchführt, dass Hamas-Kämpfer Krankenwagen benutzen, um sich fortzubewegen, und dass unzählige militärische Einrichtungen in der Nähe von zivilen Gebäuden liegen. Die Quellen argumentierten, dass viele israelische Angriffe aufgrund dieser Taktiken der Hamas Zivilisten töten – eine Charakterisierung, die Menschenrechtsgruppen davor warnen, dass Israel die Verantwortung für die Opfer entkommen lässt.

Im Gegensatz zu den offiziellen Erklärungen der israelischen Armee erklärten die Quellen jedoch, dass ein wesentlicher Grund für die beispiellose Zahl der Todesopfer bei den derzeitigen israelischen Bombardierungen die Tatsache ist, dass die Armee systematisch Ziele in ihren Privathäusern zusammen mit ihren Familien angegriffen hat – zum Teil, weil es aus nachrichtendienstlicher Sicht einfacher war, Familienhäuser mit Hilfe automatischer Systeme zu markieren.

Mehrere Quellen betonten, dass die Armee im Gegensatz zu den zahlreichen Fällen, in denen Hamas-Aktivisten von zivilen Gebieten aus militärische Aktivitäten durchführten, bei den systematischen Attentaten routinemäßig die aktive Entscheidung traf, mutmaßliche Kämpfer in zivilen Haushalten zu bombardieren, in denen keine militärischen Aktivitäten stattfanden. Diese Entscheidung spiegele die Art und Weise wider, wie Israels System der Massenüberwachung in Gaza aufgebaut sei.

Die Quellen erklärten gegenüber +972 und Local Call, dass die Überwachungssysteme der Armee Personen leicht und automatisch mit Familienhäusern „verknüpfen“ können, da jeder in Gaza ein Privathaus hat, dem er zugeordnet werden kann. Um den Moment, in dem die Agenten ihre Häuser betreten, in Echtzeit zu identifizieren, wurden verschiedene zusätzliche automatische Softwareprogramme entwickelt. Diese Programme verfolgen Tausende von Personen gleichzeitig, erkennen, wann sie zu Hause sind, und senden einen automatischen Alarm an den Zieloffizier, der dann das Haus für die Bombardierung markiert. Eine von mehreren dieser Ortungsprogramme, die hier zum ersten Mal vorgestellt wird, heißt „Where’s Daddy?“.

„Man gibt Hunderte [von Zielen] in das System ein und wartet ab, wen man töten kann“, so eine Quelle, die das System kennt. Das nennt man „broad hunting“: Man kopiert die Listen, die das Zielsystem erstellt.

Auch die Daten belegen diese Politik: Im ersten Monat des Krieges gehörten mehr als die Hälfte der Todesopfer – 6.120 Menschen – zu 1.340 Familien, von denen viele nach UN-Angaben in ihren Häusern vollständig ausgelöscht wurden. Der Anteil ganzer Familien, die im aktuellen Krieg in ihren Häusern bombardiert wurden, ist viel höher als bei der israelischen Operation im Gazastreifen im Jahr 2014 (dem bisher tödlichsten Krieg Israels im Gazastreifen), was ein weiterer Hinweis auf die Bedeutung dieser Politik ist.

Eine andere Quelle sagte, dass jedes Mal, wenn das Tempo der Attentate nachließ, weitere Ziele in Systeme wie „Where’s Daddy?“ eingegeben wurden, um Personen zu lokalisieren, die ihre Häuser betraten und daher bombardiert werden konnten. Er sagte, dass die Entscheidung, wer in die Verfolgungssysteme aufgenommen werden sollte, von relativ rangniedrigen Offizieren in der Militärhierarchie getroffen werden konnte.

Embed from Getty Images

„Eines Tages habe ich aus eigenem Antrieb etwa 1.200 neue Ziele in das System aufgenommen, weil die Zahl der Angriffe abnahm“, so die Quelle. „Das ergab für mich einen Sinn. Im Nachhinein scheint es eine ernsthafte Entscheidung gewesen zu sein, die ich getroffen habe. Und solche Entscheidungen wurden nicht auf hoher Ebene getroffen.“

Die Quellen sagten, dass in den ersten zwei Wochen des Krieges zunächst „mehrere tausend“ Ziele in Ortungsprogramme wie „Where’s Daddy?“ eingegeben wurden. Dazu gehörten alle Mitglieder der Hamas-Eliteeinheit „Nukhba“, alle Panzerabwehrspezialisten der Hamas und alle Personen, die am 7. Oktober nach Israel einreisten. Doch schon bald wurde die Tötungsliste drastisch erweitert.

„Am Ende waren es alle [von Lavender markierten] Personen“, erklärte eine Quelle. „Zehntausende. Dies geschah ein paar Wochen später, als die [israelischen] Brigaden in den Gazastreifen eindrangen und es bereits weniger unbeteiligte Menschen [d. h. Zivilisten] in den nördlichen Gebieten gab.“ Laut dieser Quelle wurden sogar einige Minderjährige von Lavender als Ziele für Bombenangriffe markiert. „Normalerweise sind die Kämpfer über 17 Jahre alt, aber das war keine Bedingung.“

Lavender und Systeme wie Where’s Daddy? wurden auf diese Weise mit tödlicher Wirkung kombiniert und töteten ganze Familien, so die Quellen. Durch das Hinzufügen eines Namens aus den von Lavender generierten Listen zum „Where’s Daddy? Home Tracking System“, erklärte A., würde die markierte Person unter ständige Überwachung gestellt und könnte angegriffen werden, sobald sie einen Fuß in ihr Haus setzt, wodurch das Haus mit allen darin befindlichen Personen zusammenstürzt.

„Nehmen wir an, Sie rechnen mit einem Hamas-Mitglied und 10 [Zivilisten im Haus]“, sagte A.. „Normalerweise sind diese 10 Frauen und Kinder. Es stellt sich also absurderweise heraus, dass die meisten der getöteten Personen Frauen und Kinder waren.“

Schritt 3: Auswahl einer Waffe

„Wir haben die Anschläge in der Regel mit „dummen Bomben“ durchgeführt.“

Sobald Lavender eine Zielperson für die Ermordung markiert hat, Armeeangehörige überprüft haben, dass es sich um einen Mann handelt, und eine Ortungssoftware die Zielperson in ihrem Haus lokalisiert hat, besteht der nächste Schritt darin, die Munition auszuwählen, mit der sie bombardiert werden soll.

Im Dezember 2023 berichtete CNN, dass nach Schätzungen des US-Geheimdienstes etwa 45 Prozent der von der israelischen Luftwaffe im Gazastreifen eingesetzten Munition „dumme“ Bomben waren, die bekanntermaßen mehr Kollateralschäden verursachen als gelenkte Bomben. Als Reaktion auf den CNN-Bericht sagte ein Armeesprecher, der in dem Artikel zitiert wird: „Als Militär, das dem Völkerrecht und einem moralischen Verhaltenskodex verpflichtet ist, setzen wir enorme Ressourcen ein, um den Schaden für die Zivilisten zu minimieren, die von der Hamas in die Rolle menschlicher Schutzschilde gezwungen wurden. Unser Krieg richtet sich gegen die Hamas, nicht gegen die Menschen in Gaza.“

„In der Regel führten wir die Angriffe mit dummen Bomben durch, und das bedeutete, dass wir buchstäblich das ganze Haus mitsamt seinen Bewohnern zerstörten.“

Drei Geheimdienstquellen erklärten jedoch gegenüber +972 und Local Call, dass die von Lavender markierten Nachwuchsagenten nur mit dummen Bomben ermordet wurden, um teurere Waffen zu sparen. Eine Quelle erklärte, dass die Armee ein Junior-Ziel nicht angreifen würde, wenn es in einem Hochhaus wohnte, weil sie keine präzisere und teurere „Etagenbombe“ (mit begrenzteren Kollateralschäden) ausgeben wollte, um es zu töten. Wohnte die Zielperson jedoch in einem Gebäude mit nur wenigen Stockwerken, war die Armee befugt, sie und alle anderen Bewohner des Gebäudes mit einer dummen Bombe zu töten.

Embed from Getty Images

„So war es auch bei allen Junior-Zielen“, sagte C., der im aktuellen Krieg verschiedene automatisierte Programme verwendet. „Die einzige Frage war, ob es möglich ist, das Gebäude unter Berücksichtigung der Kollateralschäden anzugreifen. Denn in der Regel führten wir die Angriffe mit dummen Bomben durch, und das bedeutete, dass wir buchstäblich das ganze Haus mitsamt seinen Bewohnern zerstörten. Aber selbst wenn ein Angriff abgewehrt wird, kümmert man sich nicht darum – man geht sofort zum nächsten Ziel über. Aufgrund des Systems nehmen die Ziele nie ein Ende. Es warten weitere 36.000.“

Schritt 4: Genehmigung von zivilen Opfern

„Wir haben fast ohne Rücksicht auf Kollateralschäden angegriffen“.

Eine Quelle sagte, dass in den ersten Wochen des Krieges die Anzahl der Zivilisten, die bei Angriffen auf Nachwuchsagenten, einschließlich der von KI-Systemen wie Lavender markierten, getötet werden durften, auf bis zu 20 festgelegt wurde. Eine andere Quelle behauptete, die festgelegte Zahl betrage bis zu 15. Diese „Kollateralschäden“, wie das Militär sie nennt, wurden den Quellen zufolge pauschal auf alle mutmaßlichen Nachwuchskämpfer angewandt, unabhängig von ihrem Rang, ihrer militärischen Bedeutung und ihrem Alter, und ohne spezifische Einzelfallprüfung, um den militärischen Vorteil ihrer Ermordung gegen den zu erwartenden Schaden für die Zivilbevölkerung abzuwägen.

Laut A., der im aktuellen Krieg Offizier in einem Raum für gezielte Operationen war, hat die Abteilung für internationales Recht der Armee noch nie zuvor eine so „pauschale Genehmigung“ für ein so hohes Maß an Kollateralschäden erteilt. „Es geht nicht nur darum, dass man jede Person töten kann, die ein Hamas-Soldat ist, was nach internationalem Recht eindeutig erlaubt und legitim ist“, sagte A.. „Aber sie sagen dir direkt: ‚Ihr dürft sie zusammen mit vielen Zivilisten töten.‘

„Jede Person, die in den letzten ein oder zwei Jahren eine Hamas-Uniform getragen hat, könnte bombardiert werden, wobei 20 [Zivilisten als] Kollateralschaden getötet werden, auch ohne besondere Genehmigung“, so A. weiter. „In der Praxis gab es den Grundsatz der Verhältnismäßigkeit nicht.“

Nach Aussage von A. war dies die meiste Zeit seiner Dienstzeit die Regel. Erst später hat das Militär den Grad der Kollateralschäden gesenkt. „Bei dieser Berechnung könnten es auch 20 Kinder für einen Junior-Offizier sein … Das war früher wirklich nicht so“, erklärte A.. Auf die Frage nach den sicherheitspolitischen Gründen, die hinter dieser Politik stehen, antwortete A.: „Tödlichkeit.“

Der vorgegebene und festgelegte Grad an Kollateralschäden trug dazu bei, die massenhafte Erstellung von Zielen mit Hilfe der Lavender-Maschine zu beschleunigen, so die Quellen, da dies Zeit sparte. B. behauptete, dass die Zahl der Zivilisten, die sie in der ersten Woche des Krieges pro mutmaßlichem, von der KI markiertem Nachwuchskämpfer töten durften, fünfzehn betrug, dass diese Zahl aber im Laufe der Zeit „auf und ab ging“.

„Am Anfang haben wir fast ohne Rücksicht auf Kollateralschäden angegriffen“, sagte B. über die erste Woche nach dem 7. Oktober. „In der Praxis wurden die Menschen [in den bombardierten Häusern] nicht wirklich gezählt, weil man nicht wirklich sagen konnte, ob sie zu Hause sind oder nicht. Nach einer Woche begannen die Einschränkungen für Kollateralschäden. Die Zahl sank [von 15] auf fünf, was es für uns wirklich schwierig machte, anzugreifen, denn wenn die ganze Familie zu Hause war, konnten wir sie nicht bombardieren. Dann haben sie die Zahl wieder erhöht.“

Wir wussten, dass wir über 100 Zivilisten töten würden

Quellen erklärten gegenüber +972 und Local Call, dass die israelische Armee nun, auch aufgrund des amerikanischen Drucks, nicht mehr massenhaft menschliche Nachwuchsziele für Bombardierungen in zivilen Häusern generiert. Die Tatsache, dass die meisten Häuser im Gazastreifen bereits zerstört oder beschädigt waren und fast die gesamte Bevölkerung vertrieben wurde, hat auch die Fähigkeit der Armee beeinträchtigt, sich auf Geheimdienstdatenbanken und automatische Programme zur Lokalisierung von Häusern zu verlassen.

E. behauptete, dass die massive Bombardierung der jüngeren Kämpfer nur in den ersten ein oder zwei Wochen des Krieges stattfand und dann hauptsächlich eingestellt wurde, um keine Bomben zu verschwenden. „Es gibt eine Munitionswirtschaft“, sagte E.. „Sie hatten immer Angst, dass es im Norden [mit der Hisbollah im Libanon] einen Krieg geben könnte. Sie greifen diese Art von [jüngeren] Leuten überhaupt nicht mehr an“.

Die Luftangriffe gegen hochrangige Hamas-Kommandeure dauern jedoch noch an, und Quellen zufolge genehmigt das Militär bei diesen Angriffen die Tötung von „Hunderten“ von Zivilisten pro Ziel – eine offizielle Politik, für die es keinen historischen Präzedenzfall in Israel oder sogar bei jüngsten Militäroperationen der USA gibt.

Embed from Getty Images

„Bei der Bombardierung des Kommandanten des Shuja’iya-Bataillons wussten wir, dass wir über 100 Zivilisten töten würden“, erinnerte sich B. an einen Bombenanschlag vom 2. Dezember, der nach Angaben des IDF-Sprechers auf die Ermordung von Wisam Farhat abzielte. „Für mich war das psychologisch gesehen ungewöhnlich. Über 100 Zivilisten – das überschreitet eine rote Linie.“

Amjad Al-Sheikh, ein junger Palästinenser aus Gaza, sagte, dass viele seiner Familienmitglieder bei diesem Bombenangriff getötet wurden. Er wohnte in Shuja’iya, östlich von Gaza-Stadt, und war an diesem Tag in einem örtlichen Supermarkt, als er fünf Explosionen hörte, die die Fensterscheiben zertrümmerten.

„Ich rannte zum Haus meiner Familie, aber es gab dort keine Gebäude mehr“, sagte Al-Sheikh gegenüber +972 und Local Call. „Die Straße war erfüllt von Schreien und Rauch. Ganze Wohnblocks verwandelten sich in Berge von Schutt und tiefe Gruben. Die Menschen fingen an, mit ihren Händen im Zement zu suchen, und das tat ich auch, um nach Spuren des Hauses meiner Familie zu suchen.“

Al-Sheikhs Frau und seine kleine Tochter überlebten – sie wurden durch einen Schrank, der auf sie fiel, vor den Trümmern geschützt -, aber er fand 11 weitere Familienmitglieder, darunter seine Schwestern, Brüder und ihre kleinen Kinder, tot unter den Trümmern. Nach Angaben der Menschenrechtsorganisation B’Tselem zerstörte die Bombardierung an diesem Tag Dutzende von Gebäuden, tötete Dutzende von Menschen und begrub Hunderte unter den Trümmern ihrer Häuser.

Ganze Familien wurden getötet

Geheimdienstquellen berichteten +972 und Local Call, dass sie an noch tödlicheren Angriffen beteiligt waren. Um Ayman Nofal, den Kommandeur der Zentralen Gaza-Brigade der Hamas, zu ermorden, habe die Armee die Tötung von etwa 300 Zivilisten und die Zerstörung mehrerer Gebäude bei Luftangriffen auf das Flüchtlingslager Al-Bureij am 17. Oktober genehmigt, nachdem Nofal nicht genau lokalisiert werden konnte. Satellitenaufnahmen und Videos vom Ort des Geschehens zeigen die Zerstörung mehrerer großer mehrstöckiger Wohngebäude.

„Zwischen 16 und 18 Häuser wurden bei dem Angriff ausgelöscht“, sagte Amro Al-Khatib, ein Bewohner des Lagers, gegenüber +972 und Local Call. „Wir konnten keine Wohnung von der anderen unterscheiden – sie lagen alle durcheinander in den Trümmern, und wir fanden überall menschliche Körperteile.“

Al-Khatib erinnerte sich an etwa 50 Leichen, die aus den Trümmern gezogen wurden, und an etwa 200 Verletzte, viele von ihnen schwer. Aber das war nur der erste Tag. Die Bewohner des Lagers verbrachten fünf Tage damit, die Toten und Verletzten aus den Trümmern zu bergen, sagte er.

Nael Al-Bahisi, ein Rettungssanitäter, war einer der ersten vor Ort. Er zählte an diesem ersten Tag zwischen 50 und 70 Verletzte. „Zu einem bestimmten Zeitpunkt verstanden wir, dass das Ziel des Angriffs der Hamas-Kommandeur Ayman Nofal war“, sagte er gegenüber +972 und Local Call. „Sie töteten ihn und auch viele Menschen, die nicht wussten, dass er dort war. Ganze Familien mit Kindern wurden getötet.“

Eine weitere Geheimdienstquelle berichtete +972 und Local Call, dass die Armee Mitte Dezember ein Hochhaus in Rafah zerstörte und dabei „Dutzende von Zivilisten“ tötete, um zu versuchen, Mohammed Shabaneh, den Kommandeur der Rafah-Brigade der Hamas, zu töten (es ist nicht klar, ob er bei dem Angriff getötet wurde oder nicht). Oft, so die Quelle, verstecken sich die hochrangigen Kommandeure in Tunneln, die unter zivilen Gebäuden hindurchführen, so dass die Entscheidung, sie mit einem Luftangriff zu töten, zwangsläufig auch Zivilisten tötet.

„Wir hatten eine Berechnung: wie viele für einen Brigadekommandeur, wie viele für einen Bataillonskommandeur und so weiter.“

„Die meisten der Verletzten waren Kinder“, sagte Wael Al-Sir, 55, der Zeuge des groß angelegten Angriffs war, den einige Bewohner des Gazastreifens für ein Attentat hielten. Er sagte gegenüber +972 und Local Call, dass die Bombardierung am 20. Dezember einen „ganzen Wohnblock“ zerstört und mindestens 10 Kinder getötet habe.

„Es gab eine völlig freizügige Politik in Bezug auf die Opfer von [Bombenangriffen] – so freizügig, dass sie meiner Meinung nach ein Element der Rache hatte“, behauptete D., eine Geheimdienstquelle. „Der Kern dieser Politik war die Ermordung hochrangiger [Hamas- und PIJ-Kommandeure], für die sie bereit waren, Hunderte von Zivilisten zu töten. Wir hatten eine Berechnung: wie viele für einen Brigadekommandeur, wie viele für einen Bataillonskommandeur und so weiter.“

Embed from Getty Images

„Es gab Vorschriften, aber sie waren einfach sehr nachsichtig“, sagte E., eine weitere Geheimdienstquelle. „Wir haben Menschen mit Kollateralschäden im hohen zweistelligen, wenn nicht gar niedrigen dreistelligen Bereich getötet. Das sind Dinge, die es vorher nicht gegeben hat.“

Eine derart hohe Rate an „Kollateralschäden“ ist nicht nur im Vergleich zu dem, was die israelische Armee früher für akzeptabel hielt, sondern auch im Vergleich zu den Kriegen, die die Vereinigten Staaten im Irak, in Syrien und in Afghanistan führen, außergewöhnlich.

General Peter Gersten, stellvertretender Befehlshaber für Operationen und Nachrichtendienste im Kampf gegen ISIS im Irak und in Syrien, erklärte 2021 gegenüber einer US-Verteidigungszeitschrift, dass ein Angriff, bei dem 15 Zivilisten zu Schaden kamen, von der üblichen Vorgehensweise abweicht; um ihn durchzuführen, musste er eine Sondergenehmigung vom Leiter des US-Zentralkommandos, General Lloyd Austin, einholen, der heute Verteidigungsminister ist.

„Bei Osama Bin Laden hatte man einen NCV [Non-combatant Casualty Value] von 30, aber wenn es sich um einen Kommandeur auf niedriger Ebene handelte, lag sein NCV normalerweise bei Null“, so Gersten. „Wir hatten die längste Zeit einen Wert von Null“.

Uns wurde gesagt: „Bombardiert alles, was ihr könnt“.

Alle für diese Untersuchung befragten Quellen sagten, dass die Massaker der Hamas am 7. Oktober und die Entführung der Geiseln die Feuerpolitik der Armee und den Grad der Kollateralschäden stark beeinflusst haben. „Am Anfang war die Atmosphäre schmerzhaft und rachsüchtig“, sagte B., der unmittelbar nach dem 7. Oktober zur Armee eingezogen wurde und in einem Zieloperationsraum diente. „Die Regeln waren sehr milde. Sie zerstörten vier Gebäude, wenn sie wussten, dass sich die Zielperson in einem von ihnen befand. Es war verrückt.“

„Es gab eine Dissonanz: Einerseits waren die Leute hier frustriert, dass wir nicht genug angriffen“, so B. weiter. „Andererseits sieht man am Ende des Tages, dass weitere tausend Menschen im Gazastreifen gestorben sind, die meisten von ihnen Zivilisten.“

„In den Reihen der Profis herrschte Hysterie“, sagte D., der ebenfalls unmittelbar nach dem 7. Oktober eingezogen wurde. „Sie wussten überhaupt nicht, wie sie reagieren sollten. Das Einzige, was sie zu tun wussten, war, wie die Verrückten zu bombardieren, um zu versuchen, die Fähigkeiten der Hamas zu zerstören.“

„Niemand hat darüber nachgedacht, was man danach tun wird, wenn der Krieg vorbei ist, oder wie es möglich sein wird, in Gaza zu leben und was man damit machen wird“

D. betonte, dass ihnen nicht ausdrücklich gesagt wurde, dass das Ziel der Armee „Rache“ sei, aber er brachte zum Ausdruck, dass „sobald jedes Ziel, das mit der Hamas in Verbindung gebracht wird, legitim ist und fast jeder Kollateralschaden gebilligt wird, es Ihnen klar ist, dass Tausende von Menschen getötet werden werden. Selbst wenn offiziell jedes Ziel mit der Hamas in Verbindung gebracht wird, verliert die Politik, wenn sie so freizügig ist, jede Bedeutung“.

A. benutzte auch das Wort „Rache“, um die Atmosphäre innerhalb der Armee nach dem 7. Oktober zu beschreiben. „Niemand hat darüber nachgedacht, was man danach tun wird, wenn der Krieg vorbei ist, oder wie es möglich sein wird, in Gaza zu leben und was man damit machen wird“, sagte A.. „Uns wurde gesagt: Jetzt müssen wir die Hamas fertig machen, egal was es kostet. Was immer ihr könnt, bombardiert sie.“

B., der ranghöchste Geheimdienstmitarbeiter, sagte, dass er im Nachhinein glaube, dass diese „unverhältnismäßige“ Politik der Tötung von Palästinensern in Gaza auch Israelis gefährde, und dass dies einer der Gründe sei, warum er sich zu einem Interview bereit erklärt habe.

Embed from Getty Images

„Kurzfristig sind wir sicherer, weil wir der Hamas schaden. Aber ich denke, langfristig sind wir weniger sicher. Ich sehe, wie all die trauernden Familien im Gazastreifen – und das sind fast alle – in zehn Jahren die Motivation erhöhen werden, sich der Hamas anzuschließen. Und es wird für [die Hamas] viel einfacher sein, sie zu rekrutieren.“

In einer Erklärung an +972 und Local Call dementierte die israelische Armee vieles von dem, was uns die Quellen berichtet haben, und behauptete, dass „jedes Ziel einzeln untersucht wird, während eine individuelle Bewertung des militärischen Vorteils und des Kollateralschadens, der durch den Angriff zu erwarten ist, vorgenommen wird … Die IDF führt keine Angriffe durch, wenn der Kollateralschaden, der durch den Angriff zu erwarten ist, im Verhältnis zum militärischen Vorteil zu hoch ist.“

Schritt 5: Berechnung der Kollateralschaden

„Das Modell war nicht mit der Realität verbunden.“

Den Geheimdienstquellen zufolge hat die israelische Armee bei der Berechnung der Anzahl der Zivilisten, die in jedem Haus neben einem Ziel getötet werden sollten – ein Verfahren, das in einer früheren Untersuchung von +972 und Local Call untersucht wurde – mit Hilfe automatischer und ungenauer Instrumente gearbeitet. In früheren Kriegen verbrachten die Geheimdienstmitarbeiter viel Zeit damit, zu überprüfen, wie viele Menschen sich in einem Haus befanden, das bombardiert werden sollte, wobei die Anzahl der Zivilisten, die getötet werden könnten, in einer „Zieldatei“ aufgeführt wurde. Nach dem 7. Oktober wurde diese gründliche Überprüfung jedoch weitgehend zugunsten der Automatisierung aufgegeben.

Im Oktober berichtete die New York Times über ein von einer speziellen Basis im Süden Israels betriebenes System, das Informationen von Mobiltelefonen im Gazastreifen sammelt und dem Militär eine Live-Schätzung der Zahl der Palästinenser liefert, die aus dem nördlichen Gazastreifen nach Süden geflohen sind. Brigadegeneral Udi Ben Muha erklärte gegenüber der Times: „Es ist kein 100-prozentig perfektes System – aber es liefert die Informationen, die man braucht, um eine Entscheidung zu treffen.“ Das System funktioniert nach Farben: Rot markiert Gebiete, in denen sich viele Menschen aufhalten, und Grün und Gelb markieren Gebiete, die relativ frei von Bewohnern sind.

Die Quellen, die mit +972 und Local Call sprachen, beschrieben ein ähnliches System zur Berechnung von Kollateralschäden, das verwendet wurde, um zu entscheiden, ob ein Gebäude in Gaza bombardiert werden sollte. Sie sagten, dass die Software die Anzahl der Zivilisten errechnete, die vor dem Krieg in jedem Haus wohnten – indem sie die Größe des Gebäudes bewertete und die Liste der Bewohner überprüfte – und dann diese Zahlen um den Anteil der Bewohner reduzierte, die das Viertel angeblich evakuiert hatten.

Wenn die Armee beispielsweise davon ausging, dass die Hälfte der Bewohner eines Viertels weggezogen war, zählte das Programm ein Haus, in dem normalerweise 10 Personen wohnten, als ein Haus mit fünf Bewohnern. Um Zeit zu sparen, so die Quellen, überprüfte die Armee die Häuser nicht wie bei früheren Operationen, um herauszufinden, ob die Schätzung des Programms tatsächlich zutreffend war, sondern um festzustellen, wie viele Menschen tatsächlich dort lebten.

„Dieses Modell hatte nichts mit der Realität zu tun“, behauptete eine Quelle. „Es gab keine Verbindung zwischen den Personen, die sich jetzt, während des Krieges, in dem Haus aufhielten, und denjenigen, die vor dem Krieg als dort wohnend angegeben waren. [Bei einer Gelegenheit] haben wir ein Haus bombardiert, ohne zu wissen, dass sich darin mehrere Familien versteckt hielten.“

Die Quelle sagte, dass die Armee zwar wusste, dass solche Fehler auftreten können, aber dennoch dieses ungenaue Modell gewählt wurde, weil es schneller war. Die Quelle sagte, dass „die Berechnung der Kollateralschäden völlig automatisch und statistisch war“ und sogar Zahlen ergab, die keine ganzen Zahlen waren.

Schritt 6: Bombardierung eines Familienhauses

„Man hat eine Familie ohne Grund getötet“

Die Quellen, die mit +972 und Local Call sprachen, erklärten, dass zwischen dem Moment, in dem Ortungssysteme wie „Where’s Daddy?“ einen Offizier darauf hinweisen, dass eine Zielperson ihr Haus betreten hat, und der eigentlichen Bombardierung manchmal eine beträchtliche Lücke klafft – was dazu führt, dass ganze Familien getötet werden, auch ohne dass das Ziel der Armee getroffen wird. „Es ist mir schon oft passiert, dass wir ein Haus angegriffen haben, aber die Person gar nicht zu Hause war“, sagte eine Quelle. „Das Ergebnis ist, dass man eine Familie ohne Grund getötet hat.“

Drei Geheimdienstquellen erklärten gegenüber +972 und Local Call, dass sie Zeuge eines Vorfalls waren, bei dem die israelische Armee das Privathaus einer Familie bombardierte und sich später herausstellte, dass das Ziel des Attentats gar nicht im Haus war, da keine weitere Überprüfung in Echtzeit durchgeführt wurde.

Embed from Getty Images

„Manchmal war [die Zielperson] vorher zu Hause und ging dann nachts woanders schlafen, z. B. im Untergrund, und Sie wussten nichts davon“, sagte eine der Quellen. „Es gibt Zeiten, in denen man den Standort doppelt überprüft, und es gibt Zeiten, in denen man einfach sagt: ‚Okay, er war in den letzten paar Stunden im Haus, also kann man einfach bombardieren.'“

Eine andere Quelle beschrieb einen ähnlichen Vorfall, der ihn so betroffen machte, dass er für diese Untersuchung befragt werden wollte. „Wir gingen davon aus, dass die Zielperson um 20.00 Uhr zu Hause war. Schließlich bombardierte die Luftwaffe das Haus um 3.00 Uhr morgens. In dem Gebäude, das wir bombardiert haben, waren noch zwei andere Familien mit Kindern.“

In früheren Kriegen im Gazastreifen hat der israelische Geheimdienst nach der Ermordung menschlicher Zielpersonen eine Bombenschadensbewertung (Bomb Damage Assessment – BDA) durchgeführt – eine routinemäßige Überprüfung nach dem Angriff, um festzustellen, ob der ranghohe Kommandeur getötet wurde und wie viele Zivilisten mit ihm zusammen ums Leben kamen. Wie in einer früheren Untersuchung von +972 und Local Call aufgedeckt wurde, beinhaltete dies das Abhören von Telefongesprächen von Angehörigen, die ihre Lieben verloren hatten. Im gegenwärtigen Krieg wurde dieses Verfahren jedoch zumindest in Bezug auf die mit Hilfe der künstlichen Intelligenz markierten jüngeren Kämpfer abgeschafft, um Zeit zu sparen. Die Quellen sagten, sie wüssten nicht, wie viele Zivilisten bei den einzelnen Angriffen tatsächlich getötet wurden, und bei den durch AI gekennzeichneten mutmaßlichen Hamas- und PIJ-Aktivisten mit niedrigem Rang wüssten sie nicht einmal, ob das Ziel selbst getötet wurde.

Das kann Sie auch interessieren:

Wenn man ganz fest nicht hinschaut, gibt es nichts zu sehen

Wenn man ganz fest nicht hinschaut, gibt es nichts zu sehen

Während aktuell in Shujayea, einem Viertel in Gaza-Stadt, Israels Armee 60.000 Menschen vertreibt & weiterhin …