Die KI-Maschine, die Israels Bombenangriffe in Gaza lenkt
Eine Software wählt für das Militär Ziele aus und kalkuliert hohe »Kollateralschäden« ein
Presseartikel von Neuem Deutschland übersetzt aus den israelischen Magazinen +972 und Local Call
- Yuval Abraham für +972 und Local Call
- Lesedauer: 43 Min.
Angriffe auf Zielpersonen erledigt Israels Militär oft nachts in deren Zuhause und tötet dabei die gesamte Familie oder auch weitere Menschen, die in dem Haus Schutz gesucht haben.
Im Jahr 2021 wurde unter dem Pseudonym »Brigadier General Y. S.« ein Buch mit dem Titel »The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World« auf Englisch veröffentlicht. Darin plädiert der Autor – ein Mann, bei dem es sich nachweislich um den derzeitigen Kommandeur der israelischen Eliteeinheit 8200 handelt – für die Entwicklung einer speziellen Maschine, die in kürzester Zeit riesige Datenmengen verarbeiten kann, um in Kriegszeiten Tausende potenzieller »Ziele« für militärische Angriffe zu ermitteln. Eine solche Technologie, so schreibt er, würde den »menschlichen Flaschenhals«, wie er es nennt, sowohl bei der Lokalisierung neuer Ziele als auch bei der Entscheidungsfindung für die Freigabe der Ziele überwinden.
Eine solche Maschine gibt es tatsächlich, stellt sich nun heraus. Eine neue Recherche der Magazine +972 und Local Call zeigt, dass die israelische Armee ein auf künstlicher Intelligenz basierendes Programm mit dem Namen »Lavendel« entwickelt hat, das an dieser Stelle zum ersten Mal enthüllt wird. Laut sechs israelischen Geheimdienstoffizieren, die alle während des derzeitigen Krieges im Gazastreifen in der Armee gedient haben und aus erster Hand mit dem Einsatz von Künstlicher Intelligenz (KI) zur Erstellung von Zielen für die Ermordung [orig.: »assassination«] zu tun hatten, hat Lavendel eine zentrale Rolle bei den beispiellosen Bombenangriffen auf Palästinenser gespielt, insbesondere in der Anfangsphase des Krieges. Den Quellen zufolge war der Einfluss von Lavendel auf die Operationen des Militärs so groß, dass es die Ergebnisse der KI-Maschine im Wesentlichen so behandelte, »als seien sie eine menschliche Entscheidung«.
Offiziell ist das Lavendel-System so konzipiert, dass es alle verdächtigen Mitglieder der militärischen Flügel der Hamas und des Palästinensischen Islamischen Dschihad (PIJ), auch solche mit niedrigen Rängen, als potenzielle Bombenziele markiert. Die Quellen erklärten gegenüber +972 und Local Call, dass sich die Armee in den ersten Wochen des Krieges fast vollständig auf Lavendel verließ, das bis zu 37000 Palästinenser als mutmaßliche Kämpfer – und ihre Häuser – für mögliche Luftangriffe anzeigte.
In der Anfangsphase des Krieges erteilte die Armee den Offizieren pauschal die Genehmigung, die von Lavendel erstellten Tötungslisten zu übernehmen, ohne sorgfältig zu prüfen, wie die Maschine diese Entscheidungen getroffen hatte, oder die geheimdienstlichen Rohdaten, auf denen sie beruhten, zu untersuchen. Eine Quelle gab an, dass menschliches Personal oft nur als »Erfüllungsgehilfe« für die Entscheidungen der Maschine diente, und fügte hinzu, dass es sich normalerweise nur etwa 20 Sekunden mit jedem Ziel befasse, bevor es einen Bombenangriff genehmige – und das nur, um sicherzugehen, dass das von Lavendel markierte Ziel männlich ist. Und das, obwohl es weiß, dass das System in etwa zehn Prozent der Fälle »Fehler« macht und dafür bekannt ist, dass es auch Personen markiert, die nur eine lockere Verbindung oder gar keine Verbindung zu militanten Gruppen haben.
Darüber hinaus griff die israelische Armee die Zielpersonen systematisch an, wenn sie sich in ihren Häusern aufhielten – in der Regel nachts, wenn ihre gesamte Familie anwesend war – und nicht während einer militärischen Aktivität. Den Quellen zufolge lag dies daran, dass es aus nachrichtendienstlicher Sicht einfacher war, die Personen in ihren Privathäusern aufzuspüren. Zusätzliche automatisierte Systeme, darunter ein System namens »Wo ist Papa?« [orig.: »Where’s Daddy?«], über das hier erstmals berichtet wird, wurden speziell dafür eingesetzt, die Zielpersonen aufzuspüren und Bombenangriffe durchzuführen, wenn diese die Wohnungen ihrer Familien betreten hatten.
Das Ergebnis ist, wie die Quellen bezeugen, dass Tausende von Palästinensern – die meisten von ihnen Frauen und Kinder oder Menschen, die nicht an den Kämpfen beteiligt waren – aufgrund der Entscheidungen des KI-Programms durch israelische Luftangriffe ausgelöscht wurden, insbesondere in den ersten Wochen des Krieges.
»Wir hatten kein Interesse, [Hamas]-Kräfte nur dann zu töten, wenn sie sich in einem militärischen Gebäude aufhielten oder an einer militärischen Aktivität beteiligt waren«, sagte A., ein Geheimdienstoffizier, gegenüber +972 und Local Call. »Im Gegenteil, die IDF haben sie ohne Zögern in Häusern bombardiert, und zwar als erste Option. Es ist viel einfacher, das Haus einer Familie zu bombardieren. Das System ist darauf ausgelegt, in solchen Umgebungen nach ihnen zu suchen.«
Die Lavendel-Maschine gesellt sich zu einem anderen KI-System, »Das Evangelium« [orig.: »The Gospel«], über das in einer früheren Recherche von +972 und Local Call im November 2023 sowie in eigenen Veröffentlichungen des israelischen Militärs Informationen bekannt gemacht wurden. Ein grundlegender Unterschied zwischen den beiden Systemen liegt in der Definition des Ziels: Während »Das Evangelium« Gebäude und Strukturen markiert, von denen aus die Armee behauptet, dass Militante dort operieren, markiert Lavendel Menschen – und setzt sie auf eine Tötungsliste.
Außerdem zog es die Armee den Quellen zufolge vor, bei Angriffen auf mutmaßliche niedrigrangige Militante, die von Lavendel markiert wurden, nur ungelenkte Raketen zu verwenden, die gemeinhin als »dumme« Bomben bekannt sind (im Gegensatz zu »intelligenten« Präzisionsbomben), die ganze Gebäude mitsamt ihren Bewohnern zerstören und erhebliche Verluste verursachen können. »Man will keine teuren Bomben an unwichtige Leute verschwenden – das ist sehr teuer für das Land und es gibt einen Mangel [an diesen Bomben]«, sagte C., einer der Geheimdienstler. Eine andere Quelle sagte, dass sie persönlich die Bombardierung von »Hunderten« von Privathäusern mutmaßlicher niedrigrangigen Aktivisten, die von Lavendel markiert wurden, genehmigt hätte, wobei bei vielen dieser Angriffe Zivilisten und ganze Familien als »Kollateralschaden« getötet worden seien.
In einem noch nie dagewesenen Vorgehen, so zwei der Quellen, habe die Armee in den ersten Wochen des Krieges entschieden, dass für jeden von Lavendel gekennzeichneten Hamas-Aktivisten bis zu 15 oder 20 Zivilisten getötet werden durften; bis dahin hatte das Militär keine solchen »Kollateralschäden« bei der Ermordung rangniedriger Kämpfer zugelassen. Die Quellen fügten hinzu, dass die Armee bei mehreren Gelegenheiten den Tod von mehr als 100 Zivilisten bei der Ermordung eines einzigen Kommandeurs genehmigt habe, wenn es sich bei dem Ziel um einen hochrangigen Hamas-Funktionär im Rang eines Bataillons- oder Brigadekommandeurs handelte.
Die folgende Untersuchung ist nach den sechs chronologischen Phasen der hochautomatisierten Zielerstellung durch die israelische Armee in den ersten Wochen des Gaza-Krieges gegliedert. Zunächst erläutern wir die Lavendel-Maschine selbst, die mithilfe von KI Zehntausende von Palästinensern markierte. Zweitens enthüllen wir das Wo ist Papa?-System, das diese Zielpersonen aufspürte und der Armee signalisierte, wenn sie die Häuser ihrer Familien betraten. Drittens beschreiben wir, wie die »dummen« Bomben ausgewählt wurden, um diese Häuser zu treffen.
Viertens erklären wir, wie die Armee die zulässige Anzahl von Zivilisten, die bei der Bombardierung eines Ziels getötet werden durften, heraufsetzte. Fünftens stellen wir fest, wie eine automatische Software die Anzahl der Nichtkombattanten in den einzelnen Haushalten ungenau berechnete. Und sechstens zeigen wir, dass bei mehreren Angriffen auf ein Haus, meist nachts, die Zielperson manchmal gar nicht im Haus war, weil die Militärs die Informationen nicht in Echtzeit überprüften.
SCHRITT 1: ERSTELLUNG VON ZIELVORGABEN
»Sobald man auf Automatik umsteigt, spielt die Zielerstellung verrückt.«
In der israelischen Armee bezog sich der Begriff »menschliche Zielperson« in der Vergangenheit auf einen hochrangigen Militärangehörigen, der nach den Regeln der Abteilung für internationales Recht des Militärs in seinem Privathaus getötet werden kann, auch wenn Zivilisten in der Nähe sind. Geheimdienstquellen erklärten gegenüber +972 und Local Call, dass während früherer Kriege Israels wegen der »besonders brutalen« Art, jemanden zu töten – oft wurde neben dem Ziel auch eine ganze Familie getötet –, solche menschlichen Ziele sehr sorgfältig markiert wurden und nur hochrangige Militärkommandeure in ihren Häusern bombardiert wurden, um gemäß dem internationalen Recht den Grundsatz der Verhältnismäßigkeit zu wahren.
Doch nach dem 7. Oktober – als von der Hamas angeführte Militante einen tödlichen Angriff auf südisraelische Gemeinden starteten, bei dem etwa 1200 Menschen getötet und 240 entführt wurden – verfolgte die Armee den Quellen zufolge einen grundlegend anderen Ansatz. Im Rahmen der »Operation Eiserne Schwerter« (orig.: »Iron Swords«) beschloss die Armee, alle Aktivisten des militärischen Flügels der Hamas als menschliche Ziele zu bezeichnen, unabhängig von ihrem Rang oder ihrer militärischen Bedeutung. Und das änderte alles.
Die neue Politik stellte den israelischen Geheimdienst auch vor ein technisches Problem. In früheren Kriegen musste ein Offizier, um die Ermordung einer einzelnen Zielperson zu genehmigen, einen komplizierten und langwierigen »Inkriminierungs«-Prozess durchlaufen: Er musste Beweise dafür überprüfen, dass es sich bei der Person tatsächlich um ein ranghohes Mitglied des militärischen Flügels der Hamas handelte, seinen Wohnort und seine Kontaktinformationen herausfinden und schließlich wissen, wann er tatsächlich zu Hause war. Wenn die Liste der Zielpersonen nur ein paar Dutzend hochrangige Agenten umfasste, konnten die Geheimdienstmitarbeiter die Arbeit, die mit der Inkriminierung und Lokalisierung dieser Personen verbunden war, allein bewältigen.
Als die Liste jedoch auf Zehntausende von Angehörigen niedrigerer Ränge ausgeweitet wurde, sah sich die israelische Armee veranlasst, sich auf automatisierte Software und Künstliche Intelligenz zu verlassen. Das Ergebnis war, so die Quellen, dass die Rolle des menschlichen Bedienpersonals bei der Inkriminierung von Palästinensern als Militärangehörige beiseite geschoben wurde und stattdessen die KI den Großteil der Arbeit übernahm. Laut vier der Quellen, die mit +972 und Local Call sprachen, hat Lavendel – das entwickelt wurde, um menschliche Ziele im gegenwärtigen Krieg zu erstellen – etwa 37000 Palästinenser als mutmaßliche Hamas-Kämpfer, die meisten von ihnen niedrigrangige Kräfte, zur Ermordung markiert (der IDF-Sprecher bestritt die Existenz einer solchen Tötungsliste in einer Erklärung gegenüber +972 und Local Call).
»Wir wussten nicht, wer die niedrigrangigen Aktivisten waren, weil Israel sie [vor dem Krieg] nicht routinemäßig verfolgt hat«, erklärte der ranghohe Offizier B. gegenüber +972 und Local Call und erläuterte damit den Grund für die Entwicklung dieser besonderen Zielmaschine für den derzeitigen Krieg. »Sie wollten, dass wir [die Niedrigrangigen] automatisch angreifen können. Das ist der Heilige Gral. Sobald man auf Automatik umsteigt, spielt die Zielerstellung verrückt.«
Die Quellen sagten, dass die Genehmigung zur automatischen Übernahme der Tötungslisten von Lavendel, die zuvor nur als ein Hilfsmittel verwendet worden waren, etwa zwei Wochen nach Kriegsbeginn erteilt wurde, nachdem Geheimdienstmitarbeiter die Genauigkeit einer Stichprobe von mehreren hundert vom KI-System ausgewählten Zielen »manuell« überprüft hatten. Als diese Stichprobe ergab, dass die Ergebnisse von Lavendel eine Genauigkeit von 90 Prozent bei der Identifizierung der Zugehörigkeit einer Person zur Hamas erreicht hatten, genehmigte die Armee den weitreichenden Einsatz des Systems. Wenn Lavendel eine Person als Hamas-Aktivist einstufte, wurde die Armee aufgefordert, dies als Befehl zu behandeln, ohne unabhängig zu prüfen, weshalb die Maschine diese Entscheidung getroffen hatte, oder die geheimdienstlichen Rohdaten, auf denen sie basiert, zu untersuchen, so die Quellen.
»Um fünf Uhr morgens kam [die Luftwaffe] und bombardierte alle Häuser, die wir markiert hatten«, sagte B. »Wir haben Tausende von Menschen ausgeschaltet. Wir sind sie nicht einzeln durchgegangen – wir haben alles in automatische Systeme eingegeben, und sobald eine [der markierten Personen] daheim war, wurde sie sofort zu einem Ziel. Wir haben ihn und sein Haus bombardiert.«
»Es war für mich sehr überraschend, dass wir ein Haus bombardieren sollten, um einen Fußsoldaten zu töten, dessen Bedeutung in den Kämpfen sehr gering war«, sagte eine Quelle über den Einsatz von Künstlicher Intelligenz zur Markierung mutmaßlich rangniedriger Kämpfer. »Ich nannte diese Ziele ›Müllziele‹. Dennoch fand ich sie ethischer als die Ziele, die wir nur zur ›Abschreckung‹ bombardierten – Hochhäuser, die evakuiert und zum Einsturz gebracht werden, nur um Zerstörung zu verursachen.«
Die tödlichen Folgen dieser Lockerung der Beschränkungen in der Anfangsphase des Krieges waren erschütternd. Nach Angaben des palästinensischen Gesundheitsministeriums in Gaza, auf die sich die israelische Armee seit Beginn des Krieges fast ausschließlich stützt, tötete Israel in den ersten sechs Wochen des Krieges bis zur Vereinbarung eines einwöchigen Waffenstillstands am 24. November rund 15 000 Palästinenser – fast die Hälfte der bisherigen Todesopfer.
»Je mehr Informationen und je mehr Auswahl, desto besser.«
Die Lavendel-Software analysiert die Informationen, die über die meisten der 2,3 Millionen Einwohner des Gazastreifens durch ein System der Massenüberwachung gesammelt wurden, und bewertet und stuft dann die Wahrscheinlichkeit ein, dass die jeweilige Person im militärischen Flügel der Hamas oder des PIJ aktiv ist. Quellen zufolge bewertet die Maschine fast jede einzelne Person im Gazastreifen auf einer Skala von 1 bis 100 und gibt damit an, wie wahrscheinlich es ist, dass es sich um einen Kämpfer handelt.
Lavendel lerne, Merkmale bekannter Hamas- und PIJ-Aktivisten zu erkennen, deren Informationen als Trainingsdaten in die Maschine eingespeist wurden, und dann dieselben Merkmale – auch »Features« genannt – in der allgemeinen Bevölkerung zu lokalisieren, erklärten die Quellen. Eine Person, die mehrere verschiedene belastende Merkmale aufweist, erreicht eine hohe Bewertung und wird damit automatisch zu einem potenziellen Ziel für die Ermordung.
In »The Human-Machine Team«, dem Buch, auf das zu Beginn dieses Artikels verwiesen wurde, befürwortet der derzeitige Kommandant der Einheit 8200 ein solches System, ohne Lavendel beim Namen zu nennen. (Der Kommandant selbst wird ebenfalls nicht genannt, aber fünf Quellen in der Einheit 8200 haben bestätigt, dass der Kommandant der Autor ist, wie auch »Haaretz« berichtet). Der Kommandeur beschreibt das menschliche Personal als »Flaschenhals«, der die Kapazität der Armee während einer Militäroperation einschränkt, und beklagt: »Wir [Menschen] können nicht so viele Informationen verarbeiten. Es spielt keine Rolle, wie viele Leute man damit beauftragt, während des Krieges Ziele zu produzieren – man kann immer noch nicht genug Ziele pro Tag produzieren.«
Die Lösung für dieses Problem, sagt er, sei Künstliche Intelligenz. Das Buch bietet eine kurze Anleitung zum Bau einer »Zielmaschine«, ähnlich wie Lavendel, die auf KI und Algorithmen des maschinellen Lernens basiert. Dieser Leitfaden enthält mehrere Beispiele für die »Hunderte und Tausende« von Merkmalen, die die Bewertung einer Person erhöhen können, wie zum Beispiel die Mitgliedschaft in einer Whatsapp-Gruppe mit einem bekannten Militanten, der Wechsel des Mobiltelefons alle paar Monate und der häufige Wechsel der Adresse.
»Je mehr Informationen und je mehr Auswahl, desto besser«, schreibt der Kommandeur. »Visuelle Informationen, Informationen über Mobiltelefone, Verbindungen zu sozialen Medien, Informationen über das Einsatzgebiet, Telefonkontakte, Fotos.« Während anfangs Menschen diese Merkmale auswählen, so der Kommandeur weiter, wird die Maschine mit der Zeit selbständig Merkmale identifizieren. Auf diese Weise könnten die Streitkräfte »Zehntausende von Zielen« erstellen, wobei die eigentliche Entscheidung darüber, ob sie angegriffen werden sollen oder nicht, weiterhin von Menschen getroffen wird.
Das Buch ist nicht das einzige Mal, dass ein ranghoher israelischer Befehlshaber auf die Existenz von Zielmaschinen wie Lavendel anspielt. +972 und Local Call haben Aufnahmen einer privaten Vorlesung des Kommandanten des geheimen Zentrums für Datenwissenschaft und KI der Einheit 8200, »Oberst Yoav«, auf der KI-Woche der Universität Tel Aviv im Jahr 2023 erhalten, über die damals in den israelischen Medien berichtet wurde.
In dem Vortrag spricht der Kommandeur über eine neue, hochentwickelte Zielmaschine, die von der israelischen Armee eingesetzt wird und »gefährliche Personen« anhand ihrer Ähnlichkeit mit bestehenden Listen bekannter Militanter erkennt, auf die sie trainiert wurde. »Mit Hilfe des Systems ist es uns gelungen, die Befehlshaber der Hamas-Raketenkommandos zu identifizieren«, sagte »Col. Yoav« in dem Vortrag und bezog sich dabei auf die israelische Militäroperation im Mai 2021 im Gazastreifen, bei der die Maschine zum ersten Mal eingesetzt wurde.
Die Vortragsfolien, die +972 und Local Call ebenfalls erhalten haben, zeigen, wie die Maschine funktioniert: Sie wird mit Daten über bestehende Hamas-Aktivisten gefüttert, lernt, deren Merkmale zu erkennen, und bewertet dann andere Palästinenser danach, wie ähnlich sie den Kämpfern sind.
»Wir ordnen die Ergebnisse ein und bestimmen die Schwelle [für einen Angriff auf ein Ziel]«, sagte Oberst Yoav in dem Vortrag und unterstrich, dass »letztendlich Menschen aus Fleisch und Blut die Entscheidungen treffen. Im Verteidigungsbereich legen wir, ethisch gesehen, großen Wert darauf. Diese Instrumente sollen [Geheimdienstmitarbeitern] helfen, ihre Grenzen zu überwinden.«
In der Praxis, so Quellen, die Lavendel in den vergangenen Monaten eingesetzt haben, wurden jedoch menschliches Handeln und Präzision durch die massenhafte Schaffung von Zielen und deren tödliche Auswirkungen ersetzt.
Es gab keine »Nullfehlerpolitik«
B., ein ranghoher Offizier, der Lavendel eingesetzt hat, erklärte gegenüber +972 und Local Call, dass die Offiziere im derzeitigen Krieg nicht verpflichtet gewesen seien, die Einschätzungen des KI-Systems unabhängig zu überprüfen, um Zeit zu sparen und die Massenproduktion menschlicher Ziele ohne Hindernisse zu ermöglichen.
»Alles war statistisch, alles war sauber – es war sehr trocken«, sagte B. Er merkte an, dass dieser Mangel an Überwachung zugelassen worden sei, obwohl interne Überprüfungen gezeigt hätten, dass Lavendels Berechnungen nur in 90 Prozent der Fälle korrekt waren; mit anderen Worten, es war im Voraus bekannt, dass zehn Prozent der für die Ermordung vorgesehenen menschlichen Ziele gar keine Mitglieder des militärischen Flügels der Hamas waren.
So erklärten Quellen, dass die Lavendel-Maschine manchmal fälschlicherweise Personen markiert habe, die Kommunikationsmuster aufwiesen, die bekannten Hamas- oder PIJ-Aktivisten ähnelten – darunter Mitarbeiter der Polizei und des Zivilschutzes, Verwandte von Kämpfern, Einwohner, die zufällig einen Namen und Spitznamen hatten, der mit dem eines Funktionsträgers identisch war, und Bewohner des Gazastreifens, die ein Gerät benutzten, das einst einem Hamas-Aktivisten gehörte.
»Wie nahe muss eine Person der Hamas stehen, damit sie [von einer KI-Maschine] als mit der Organisation verbunden angesehen wird?«, fragte eine Quelle, die die Ungenauigkeit von Lavendel kritisierte. »Es ist eine ungenaue Grenze. Ist eine Person, die kein Gehalt von der Hamas erhält, ihr aber bei allen möglichen Dingen hilft, ein Hamas-Akteur? Ist jemand, der in der Vergangenheit in der Hamas war, aber heute nicht mehr dort ist, ein Akteur der Hamas? Jedes dieser Merkmale – Eigenschaften, die eine Maschine als verdächtig kennzeichnen würde – ist ungenau.«
Ähnliche Probleme gibt es bei der Fähigkeit von Zielmaschinen, das Telefon einer für ein Attentat markierten Person zu bewerten. »Im Krieg wechseln die Palästinenser ständig ihre Telefone«, sagte die Quelle. »Die Leute verlieren den Kontakt zu ihren Familien, geben ihr Telefon an einen Freund oder eine Frau weiter und verlieren es vielleicht. Es gibt keine Möglichkeit, sich zu 100 Prozent auf den automatischen Mechanismus zu verlassen, der bestimmt, welche [Telefon-]Nummer zu wem gehört.«
Den Quellen zufolge wusste die Armee, dass die geringe menschliche Aufsicht diese Fehler nicht aufdecken konnte. »Es gab keine Nullfehlerpolitik. Fehler wurden statistisch behandelt«, sagte eine Quelle, die Lavendel benutzte. »Aufgrund des Umfangs und der Größenordnung lautete das Protokoll: Selbst wenn man nicht sicher weiß, dass die Maschine richtig ist, weiß man, dass sie statistisch gesehen richtig liegt. Also macht man es.«
»Es hat sich bewährt«, sagte B., die hochrangige Quelle. »Der statistische Ansatz bringt es mit sich, dass man sich an eine bestimmte Regel und Norm hält. Es gab eine unlogische Anzahl von [Bombenangriffen] in dieser Operation. Das ist meiner Erinnerung nach beispiellos. Und ich habe viel mehr Vertrauen in einen statistischen Mechanismus als in einen Soldaten, der vor zwei Tagen einen Freund verloren hat. Jeder dort, auch ich, hat am 7. Oktober Menschen verloren. Die Maschine hat es eiskalt erledigt. Und das machte es einfacher.«
Eine andere Geheimdienstquelle, die das Vertrauen in die von Lavendel erstellten Tötungslisten palästinensischer Verdächtiger verteidigte, argumentierte, dass es sich nur dann lohne, die Zeit eines Geheimdienstmitarbeiters zu investieren, um die Informationen zu überprüfen, wenn es sich bei der Zielperson um einen hochrangigen Hamas-Kommandeur handele. »Wenn es sich aber um einen niedrigrangigen Kämpfer handelt, will man keine Arbeitskraft und Zeit investieren«, sagte er. »Im Krieg hat man keine Zeit, jedes Ziel zu überprüfen. Also ist man bereit, die Fehlermarge beim Einsatz künstlicher Intelligenz in Kauf zu nehmen, Kollateralschäden und den Tod von Zivilisten zu riskieren und damit zu leben, dass man aus Versehen angreift.«
B. sagte, der Grund für diese Automatisierung sei ein ständiger Druck, mehr Ziele für die Ermordung zu generieren. »An einem Tag, an dem es keine Ziele gab [deren Merkmalseinstufung ausreichte, um einen Angriff zu genehmigen], griffen wir mit einer niedrigeren Schwelle an. Wir wurden ständig unter Druck gesetzt: ›Bringt uns mehr Ziele‹. Sie schrien uns regelrecht an. Wir haben unsere Ziele sehr schnell erledigt [orig: ›killing‹].«
Er erläuterte, dass Lavendel bei einer Senkung der Bewertungsschwelle mehr Personen als Angriffsziele markierte. »In der Spitze konnte das System 37000 Personen als potenzielle menschliche Ziele identifizieren«, sagte B. »Aber die Zahlen änderten sich ständig, denn es hängt davon ab, wo man die Messlatte für einen Hamas-Aktivisten ansetzt. Es gab Zeiten, in denen der Begriff Hamas-Aktivist weiter gefasst wurde, und dann begann die Maschine, uns alle Arten von Mitarbeitern des Zivilschutzes und Polizisten zu liefern, bei denen es eine Schande ist, Bomben zu vergeuden. Sie helfen der Hamas-Regierung, aber sie gefährden die Soldaten nicht wirklich.«
Eine Quelle, die mit dem militärischen Datenwissenschaftsteam zusammenarbeitet, das Lavendel trainiert hat, sagte, dass auch Daten von Mitarbeitern des von der Hamas geleiteten Ministeriums für innere Sicherheit, die er nicht als Kämpfer betrachtet, in die Maschine eingespeist wurden. »Mich hat die Tatsache gestört, dass bei der Ausbildung von Lavendel der Begriff ›Hamas-Aktivist‹ sehr großzügig verwendet wurde und auch Personen, die im Zivilschutz tätig waren, in den Datensatz aufgenommen wurden«, sagte er.
Die Quelle fügte hinzu, dass, selbst wenn man der Meinung sei, dass diese Menschen es verdienten, getötet zu werden, das Training des Systems auf der Grundlage ihrer Kommunikationsprofile die Wahrscheinlichkeit erhöht, dass Lavendel versehentlich Zivilisten auswählt, sobald seine Algorithmen auf die allgemeine Bevölkerung angewendet werden. »Da es sich um ein automatisches System handelt, das nicht manuell von Menschen bedient wird, ist die Bedeutung dieser Entscheidung dramatisch: Sie bedeutet, dass man viele Menschen mit einem zivilen Kommunikationsprofil als potenzielle Ziele einbezieht.«
»Wir haben nur überprüft, ob das Ziel ein Mann war.«
Das israelische Militär weist diese Behauptungen entschieden zurück. In einer Erklärung gegenüber +972 und Local Call bestritt der IDF-Sprecher, dass künstliche Intelligenz eingesetzt wird, um Ziele zu inkriminieren, und sagte, es handele sich lediglich um »Hilfsmittel, die den Beamten bei der Inkriminierung helfen«. Die Erklärung fuhr fort: »In jedem Fall ist eine unabhängige Prüfung durch einen [nachrichtendienstlichen] Analysten erforderlich, der verifiziert, dass es sich bei den identifizierten Zielen um legitime Angriffsziele handelt, in Übereinstimmung mit den Bedingungen, die in den IDF-Direktiven und im internationalen Recht festgelegt sind.«
Quellen zufolge bestand das einzige menschliche Überwachungsprotokoll vor der Bombardierung von Häusern mutmaßlicher niedrigrangiger Kämpfer, die von Lavendel markiert wurden, in einer einzigen Überprüfung: Es wurde sichergestellt, dass das von der KI ausgewählte Ziel männlich und nicht weiblich ist. In der Armee ging man davon aus, dass, wenn das Ziel eine Frau war, die Maschine wahrscheinlich einen Fehler gemacht hatte, weil es in den Reihen der militärischen Flügel von Hamas und PIJ keine Frauen gibt.
»Ein Mensch musste [die Zielperson] nur ein paar Sekunden lang verifizieren«, sagte B. und erklärte, dass dies zum Protokoll geworden sei, nachdem man festgestellt hatte, dass das Lavendel-System die meiste Zeit »richtig lag«. »Anfangs haben wir Überprüfungen durchgeführt, um sicherzustellen, dass sich die Maschine nicht irrte. Aber irgendwann verließen wir uns auf das automatische System und überprüften nur noch, ob es sich bei der Zielperson um einen Mann handelte – das reichte. Es dauert nicht lange, um festzustellen, ob jemand eine männliche oder eine weibliche Stimme hat«.
»Für die Überprüfung, ob es sich um eine männliche oder weibliche Person handelt, würde ich im derzeitigen Krieg 20 Sekunden pro Zielperson investieren und jeden Tag Dutzende davon durchführen«, so B. »Ich hatte als Mensch keinerlei Mehrwert, außer dass ich dem Vorgang den Stempel aufdrücken sollte. Das sparte eine Menge Zeit. Wenn [die Zielperson] im automatischen Mechanismus auftauchte und ich überprüfte, dass es sich um einen Menschen handelte, gab es die Erlaubnis, ihn zu bombardieren, vorbehaltlich einer Prüfung der Kollateralschäden.«
In der Praxis bedeutete dies, dass es für Zivilisten, die von Lavendel irrtümlich markiert wurden, keinen Aufsichtsmechanismus gab, um den Fehler zu entdecken. Laut B. trat ein häufiger Fehler auf, »wenn die [Hamas-]Zielperson [ihr Telefon] ihrem Sohn, ihrem älteren Bruder oder einfach einem beliebigen Mann gab. Diese Person wird dann in ihrem Haus mit ihrer Familie bombardiert. Das kam häufig vor. Das waren die meisten Fehler, die durch Lavendel verursacht wurden.«
SCHRITT 2: VERKNÜPFUNG VON ZIELEN MIT WOHNHÄUSERN VON FAMILIEN
»Die meisten der getöteten Menschen waren Frauen und Kinder.«
Der nächste Schritt im Ermordungsverfahren der israelischen Armee besteht darin, herauszufinden, wo die Ziele, die Lavendel generiert, angegriffen werden sollen.
In einer Erklärung gegenüber +972 und Local Call erklärte der IDF-Sprecher als Reaktion auf diesen Artikel, dass »die Hamas ihre Agenten und militärischen Einrichtungen inmitten der Zivilbevölkerung platziert, die Zivilbevölkerung systematisch als menschliche Schutzschilde einsetzt und die Kämpfe von zivilen Strukturen aus führt, einschließlich sensibler Orte wie Krankenhäuser, Moscheen, Schulen und UN-Einrichtungen. Die IDF sind an das Völkerrecht gebunden und handeln danach, indem sie ihre Angriffe nur auf militärische Ziele und Militärangehörige richten.«
Die sechs Quellen, mit denen wir sprachen, bestätigten dies bis zu einem gewissen Grad und sagten, dass das ausgedehnte Tunnelsystem der Hamas absichtlich unter Krankenhäusern und Schulen hindurchführt, dass Hamas-Kämpfer Krankenwagen benutzen, um sich fortzubewegen, und dass zahllose militärische Einrichtungen in der Nähe von zivilen Gebäuden aufgestellt wurden. Die Quellen argumentierten, dass viele israelische Angriffe als Ergebnis dieser Taktik der Hamas Zivilisten töten – eine Charakterisierung, vor der Menschenrechtsgruppen warnen, weil sie die Verantwortung Israels für die Opfer unterschlägt.
Im Gegensatz zu den offiziellen Erklärungen der israelischen Armee erklärten die Quellen jedoch, dass ein wesentlicher Grund für die beispiellose Zahl der Todesopfer bei den derzeitigen israelischen Bombardierungen darin liegt, dass die Armee systematisch Ziele in ihren Privathäusern und mit ihren Familien angegriffen hat – zum Teil deshalb, weil es aus geheimdienstlicher Sicht einfacher war, Familienhäuser mit Hilfe automatischer Systeme zu markieren.
Mehrere Quellen betonten, dass die Armee im Gegensatz zu den zahlreichen Fällen, in denen Hamas-Aktivisten von zivilen Gebieten aus militärische Aktivitäten durchführten, bei den systematischen Angriffen routinemäßig die aktive Entscheidung traf, mutmaßliche Kämpfer in zivilen Haushalten zu bombardieren, in denen keine militärischen Aktivitäten stattfanden. Diese Entscheidung spiegele die Art und Weise wider, wie Israels System der Massenüberwachung in Gaza aufgebaut sei.
Die Quellen erklärten gegenüber +972 und Local Call, dass die Überwachungssysteme der Armee Personen leicht und automatisch mit Wohnhäusern »verknüpfen« könnten, da jeder in Gaza ein privates Haus habe, dem er zugeordnet werden könne. Um den Moment, in dem die Aktivisten ihre Häuser betreten, in Echtzeit zu identifizieren, wurden verschiedene zusätzliche automatische Softwareprogramme entwickelt. Diese Programme verfolgen Tausende von Personen gleichzeitig, erkennen, wann sie zu Hause sind, und senden einen automatischen Alarm an den Zieloffizier, der dann das Haus für die Bombardierung markiert. Eines von mehreren dieser Ortungsprogramme, die hier zum ersten Mal vorgestellt werden, heißt »Wo ist Papa?«.
»Man gibt Hunderte [von Zielen] in das System ein und wartet ab, wen man töten kann«, so eine Quelle, die das System kennt. »Das nennt man ausgedehnte Jagd: Man kopiert von den Listen, die das Zielsystem erstellt.«
Ein Beweis für diese Politik sind auch die Daten: Im ersten Monat des Krieges gehörten mehr als die Hälfte der Todesopfer – 6120 Menschen – zu 1340 Familien, von denen nach UN-Angaben viele in ihren Häusern vollständig ausgelöscht wurden. Der Anteil ganzer Familien, die im derzeitigen Krieg in ihren Häusern bombardiert wurden, ist viel höher als bei der israelischen Operation im Gazastreifen im Jahr 2014 (dem bisher tödlichsten Krieg Israels im Gazastreifen), was ein weiterer Hinweis auf die große Bedeutung dieser Politik ist.
Eine andere Quelle sagte, dass jedes Mal, wenn das Tempo der Angriffe nachließ, weitere Ziele in Systeme wie »Wo ist Papa?« aufgenommen wurden, um Personen ausfindig zu machen, die ihre Häuser betraten und daher bombardiert werden konnten. Er sagte, dass die Entscheidung, wer in die Verfolgungssysteme aufgenommen werden sollte, von relativ rangniedrigen Offizieren in der Militärhierarchie getroffen werden konnte.
»Eines Tages habe ich aus eigenem Antrieb etwa 1200 neue Ziele in das System aufgenommen, da die Zahl der Angriffe zurückging«, so die Quelle. »Das erschien mir sinnvoll. Im Nachhinein scheint es eine vernünftige Entscheidung gewesen zu sein, die ich getroffen habe. Und solche Entscheidungen wurden nicht auf hoher Ebene getroffen.«
Die Quellen sagten, dass in den ersten zwei Wochen des Krieges zunächst »mehrere tausend« Ziele in Ortungsprogramme wie »Wo ist Papa?« eingegeben wurden. Dazu gehörten alle Mitglieder der Hamas-Eliteeinheit Nukhba, alle Panzerabwehrspezialisten der Hamas und alle Personen, die am 7. Oktober Israel betreten hatten. Doch schon bald wurde die Tötungsliste drastisch erweitert.
»Am Ende waren es alle [von Lavendel markierten] Personen«, erklärte eine Quelle. »Zehntausende. Dies geschah ein paar Wochen später, als die [israelischen] Brigaden in den Gazastreifen eindrangen und es bereits weniger unbeteiligte Menschen [das heißt Zivilisten] in den nördlichen Gebieten gab.« Laut dieser Quelle wurden sogar einige Minderjährige von Lavendel als Ziele für Bombenangriffe markiert.
Lavendel und Systeme wie »Wo ist Papa?« wurden auf diese Weise mit einer tödlichen Wirkung kombiniert, wodurch ganze Familien getötet wurden, so die Quellen. Durch das Hinzufügen eines Namens aus den von Lavendel generierten Listen zum Hausverfolgungssystem Wo ist Papa?, erklärte A., werde die markierte Person unter ständige Überwachung gestellt und könne angegriffen werden, sobald sie ihr Haus betritt, wodurch das Haus mit allen darin befindlichen Personen zusammenstürzt.
»Nehmen wir an, Sie rechnen mit einem Hamas-Aktivisten und zehn [Zivilisten im Haus]«, sagte A. »Normalerweise sind dies zehn Frauen und Kinder. Es stellt sich also absurderweise heraus, dass die meisten der getöteten Personen Frauen und Kinder waren.«
SCHRITT 3: AUSWAHL EINER WAFFE
»Wir führten die Anschläge in der Regel mit ›dummen Bomben‹ aus.«
Sobald Lavendel eine Zielperson für die Ermordung markiert hat, Armeeangehörige überprüft haben, dass es sich um einen Mann handelt, und eine Ortungssoftware die Zielperson in ihrem Haus lokalisiert hat, besteht der nächste Schritt darin, die Munition auszuwählen, mit der sie bombardiert werden soll.
Im Dezember 2023 berichtete CNN, dass nach Schätzungen des US-Geheimdienstes etwa 45 Prozent der von der israelischen Luftwaffe im Gazastreifen eingesetzten Munition »dumme Bomben« gewesen seien, von denen bekannt ist, dass sie größere Kollateralschäden verursachen als Lenkbomben. Als Reaktion auf den CNN-Bericht sagte ein Armeesprecher, der in dem Artikel zitiert wird: »Als Militär, das dem Völkerrecht und einem moralischen Verhaltenskodex verpflichtet ist, setzen wir enorme Ressourcen ein, um den Schaden für die Zivilisten zu minimieren, die von der Hamas in die Rolle menschlicher Schutzschilde gezwungen wurden. Unser Krieg richtet sich gegen die Hamas, nicht gegen die Menschen in Gaza.«
Drei Geheimdienstquellen erklärten jedoch gegenüber +972 und Local Call, dass die von Lavendel markierten niedrigrangigen Aktivisten nur mit dummen Bomben ermordet wurden, um teurere Rüstungsgüter zu sparen. Eine Quelle erklärte, dass die Armee ein niedrigrangiges Ziel nicht angreifen würde, wenn dieses in einem Hochhaus wohnte, weil sie keine präzisere und teurere »Etagenbombe« (mit begrenzterer Kollateralwirkung) ausgeben wolle, um es zu töten. Wenn aber ein niedrigrangiges Ziel in einem Gebäude mit nur wenigen Stockwerken wohnte, war die Armee befugt, das Ziel und alle anderen Bewohner des Gebäudes mit einer tödlichen Bombe zu töten.
»So war es auch bei allen niedrigrangigen Zielen«, sagte C. aus, der im derzeitigen Krieg verschiedene automatisierte Programme verwendet. »Die einzige Frage war, ob es möglich ist, das Gebäude unter Berücksichtigung der Kollateralschäden anzugreifen. Denn in der Regel führten wir die Angriffe mit tödlichen Bomben durch, und das bedeutete, dass wir buchstäblich das ganze Haus mitsamt seinen Bewohnern zerstörten. Aber selbst wenn ein Angriff abgewehrt wird, kümmert man sich nicht darum – man geht sofort zum nächsten Ziel über. Aufgrund des Systems nehmen die Ziele nie ein Ende. Es warten weitere 36000.«
SCHRITT 4: DIE GENEHMIGUNG ZIVILER OPFER
»Wir haben fast ohne Rücksicht auf Kollateralschäden angegriffen.«
Eine Quelle sagte, dass in den ersten Wochen des Krieges die Anzahl der Zivilisten, die bei Angriffen auf niedrigrangige Kräfte, einschließlich der von KI-Systemen wie Lavendel markierten, getötet werden durften, auf bis zu 20 festgelegt war. Eine andere Quelle behauptete, die festgelegte Zahl habe bis zu 15 betragen. Diese »Kollateralschäden«, wie das Militär sie nennt, wurden den Quellen zufolge pauschal auf alle mutmaßlichen niedrigrangigen Kämpfer angewandt, unabhängig von ihrem Rang, ihrer militärischen Bedeutung und ihrem Alter, und ohne spezifische Einzelfallprüfung, um den militärischen Vorteil ihrer Ermordung gegen den zu erwartenden Schaden für die Zivilbevölkerung abzuwägen.
Laut A., der im laufenden Krieg Offizier in einem Raum für gezielte Operationen war, hat die Abteilung für internationales Recht der Armee noch nie zuvor eine so »pauschale Genehmigung« für ein so hohes Maß an Kollateralschäden erteilt. »Es geht nicht nur darum, dass man jede Person töten kann, die ein Hamas-Soldat ist, was nach internationalem Recht eindeutig erlaubt und legitim ist«, sagte A. »Aber sie sagen einem direkt: ›Ihr dürft sie zusammen mit vielen Zivilisten töten.‹«
»Jede Person, die in den vergangenen ein oder zwei Jahren eine Hamas-Uniform getragen hat, könnte bombardiert werden, wobei 20 [Zivilisten als] Kollateralschaden getötet werden, auch ohne besondere Genehmigung«, so A. weiter. »In der Praxis existierte der Grundsatz der Verhältnismäßigkeit nicht.«
Laut A. war dies die meiste Zeit seiner Dienstzeit die Politik. Erst später habe das Militär den Grad der Kollateralschäden gesenkt. »Bei dieser Berechnung konnten es auch 20 Kinder für einen niedrigrangigen Offizier sein … Das war früher wirklich nicht so«, erklärte A. Auf die Frage nach den sicherheitspolitischen Gründen, die hinter dieser Politik stehen, antwortete A.: »Tödlichkeit.«
Der vorgegebene und festgelegte Faktor für Kollateralschäden trug dazu bei, die massenhafte Erstellung von Zielen mit Hilfe der Lavendel-Maschine zu beschleunigen, so die Quellen, da dies Zeit sparte. B. behauptete, dass die Zahl der Zivilisten, die sie in der ersten Woche des Krieges pro mutmaßlichem, von der KI markiertem niedrigrangigen Kämpfer töten durften, 15 betrug, dass diese Zahl aber im Laufe der Zeit »hoch und runter« ging.
»Am Anfang haben wir fast ohne Rücksicht auf Kollateralschäden angegriffen«, sagte B. über die erste Woche nach dem 7. Oktober. »In der Praxis wurden die Menschen [in den bombardierten Häusern] nicht wirklich gezählt, weil man nicht wirklich sagen konnte, ob sie zu Hause sind oder nicht. Nach einer Woche begannen die Beschränkungen für Kollateralschäden. Die Zahl sank [von 15] auf fünf, was es für uns wirklich schwierig machte anzugreifen, denn wenn die ganze Familie zu Hause war, konnten wir sie nicht bombardieren. Dann haben sie die Zahl wieder erhöht.«
»Wir wussten, dass wir über 100 Zivilisten töten würden.«
Quellen erklärten gegenüber +972 und Local Call, dass die israelische Armee jetzt, auch aufgrund des amerikanischen Drucks, nicht mehr massenhaft Ziele für Bombenangriffe in zivilen Häusern auswählt. Die Tatsache, dass die meisten Häuser im Gazastreifen bereits zerstört oder beschädigt waren und fast die gesamte Bevölkerung vertrieben wurde, hat auch die Fähigkeit der Armee beeinträchtigt, sich auf Geheimdienstdatenbanken und automatische Programme zur Lokalisierung von Häusern zu verlassen.
E. erklärte, dass die massiven Bombardierungen der niedrigrangigen Kämpfer nur in den ersten ein oder zwei Wochen des Krieges stattfanden und dann größtenteils eingestellt wurden, um keine Bomben zu verschwenden. »Es gibt eine Munitionswirtschaft«, sagte E.. »Sie hatten immer Angst, dass es im Norden [mit der Hisbollah im Libanon] einen Krieg geben könnte. Sie greifen diese Art von [niedrigrangigen] Leuten überhaupt nicht mehr an.«
Die Luftangriffe auf hochrangige Hamas-Kommandeure dauern jedoch noch an, und Quellen zufolge genehmigt das Militär bei diesen Angriffen die Tötung von »Hunderten« von Zivilisten pro Ziel – eine offizielle Politik, für die es keinen historischen Präzedenzfall in Israel oder sogar bei jüngsten Militäroperationen der USA gibt.
»Bei der Bombardierung des Kommandeurs des Shuja'iya-Bataillons wussten wir, dass wir über 100 Zivilisten töten würden«, erinnerte sich B. an eine Bombardierung am 2. Dezember, die nach Angaben des IDF-Sprechers auf die Ermordung von Wisam Farhat abzielte. »Für mich war das psychologisch gesehen ungewöhnlich. Über 100 Zivilisten – das überschreitet eine rote Linie.«
Amjad Al-Sheikh, ein junger Palästinenser aus Gaza, sagte, dass viele seiner Familienmitglieder bei diesem Bombenangriff getötet worden seien. Er wohnte in Shuja'iya, östlich von Gaza-Stadt, und war an diesem Tag in einem örtlichen Supermarkt, als er fünf Explosionen hörte, die die Fensterscheiben zerschmetterten.
»Ich rannte zum Haus meiner Familie, aber es gab dort keine Gebäude mehr«, sagte Al-Sheikh gegenüber +972 und Local Call. »Die Straße war erfüllt von Schreien und Rauch. Ganze Wohnblocks verwandelten sich in Berge von Schutt und tiefe Gruben. Die Menschen fingen an, mit ihren Händen im Zement zu wühlen, und das tat ich auch, um Spuren des Hauses meiner Familie zu finden.«
Al-Sheikhs Frau und seine kleine Tochter überlebten – sie wurden durch einen Schrank, der auf sie fiel, vor den Trümmern geschützt –, aber er fand elf weitere Mitglieder seiner Familie, darunter seine Schwestern, Brüder und ihre kleinen Kinder, tot unter den Trümmern. Nach Angaben der Menschenrechtsorganisation B'Tselem wurden bei der Bombardierung an diesem Tag Dutzende von Gebäuden zerstört, Dutzende von Menschen getötet und Hunderte unter den Trümmern ihrer Häuser begraben.
»Ganze Familien wurden getötet.«
Geheimdienstquellen berichteten +972 und Local Call, dass sie an noch tödlicheren Angriffen beteiligt gewesen seien. Um Ayman Nofal, den Kommandeur der Zentralen Gaza-Brigade der Hamas, zu ermorden, habe die Armee die Tötung von etwa 300 Zivilisten und die Zerstörung mehrerer Gebäude bei Luftangriffen auf das Flüchtlingslager Al-Bureij am 17. Oktober genehmigt, nachdem Nofal nicht genau lokalisiert werden konnte. Satellitenaufnahmen und Videos vom Ort des Geschehens zeigen die Zerstörung mehrerer großer mehrstöckiger Wohngebäude.
»Zwischen 16 und 18 Häuser wurden bei dem Angriff ausgelöscht«, sagte Amro Al-Khatib, ein Bewohner des Lagers, gegenüber +972 und Local Call. »Wir konnten keine Wohnung von der anderen unterscheiden – sie lagen alle durcheinander in den Trümmern, und wir fanden überall menschliche Körperteile.«
Al-Khatib erinnerte sich an etwa 50 Leichen, die aus den Trümmern gezogen wurden, und an etwa 200 Verletzte, viele von ihnen schwer. Aber das war nur am ersten Tag. Die Bewohner des Lagers hätten fünf Tage damit verbracht, die Toten und Verletzten aus den Trümmern zu bergen, sagte er.
Nael Al-Bahisi, ein Rettungssanitäter, war einer der ersten vor Ort. Er zählte an diesem ersten Tag zwischen 50 und 70 Verletzte. » Irgendwann wurde uns klar, dass das Ziel des Angriffs der Hamas-Kommandeur Ayman Nofal war«, sagte er gegenüber +972 und Local Call. »Sie töteten ihn und auch viele Menschen, die nicht wussten, dass er dort war. Ganze Familien mit Kindern wurden getötet.«
Eine weitere Geheimdienstquelle berichtete +972 und Local Call, dass die Armee Mitte Dezember ein Hochhaus in Rafah zerstörte und dabei »Dutzende von Zivilisten« tötete, um zu versuchen, Mohammed Shabaneh, den Kommandeur der Rafah-Brigade der Hamas, zu töten (es ist nicht klar, ob er bei dem Angriff umgekommen ist oder nicht). Oft, so die Quelle, versteckten sich die hochrangigen Kommandeure in Tunneln, die unter zivilen Gebäuden hindurchführten, so dass die Entscheidung, sie mit einem Luftangriff zu töten, zwangsläufig auch Zivilisten töte.
»Die meisten der Verletzten waren Kinder«, sagte Wael Al-Sir, 55, der Zeuge des groß angelegten Angriffs war, den einige Bewohner des Gazastreifens für ein Attentat hielten. Er sagte gegenüber +972 und Local Call, dass die Bombardierung am 20. Dezember einen »ganzen Wohnblock« zerstört und mindestens zehn Kinder getötet habe.
»Es gab eine völlig laxe Politik in Bezug auf die Opfer von [Bombenangriffen] – so lax, dass sie meiner Meinung nach ein Racheelement hatte«, erklärte D., eine Geheimdienstquelle. »Der Kern dieser Politik war die Ermordung hochrangiger [Hamas- und PIJ-Kommandeure], für die sie bereit waren, Hunderte von Zivilisten zu töten. Wir hatten eine Berechnung: so viele für einen Brigadekommandeur, so viele für einen Bataillonskommandeur, und so weiter.«
»Es gab Vorschriften, aber sie waren einfach sehr großzügig«, sagte E., eine weitere Geheimdienstquelle. »Wir haben Menschen mit Kollateralschäden im hohen zweistelligen, wenn nicht gar niedrigen dreistelligen Bereich getötet. Das sind Dinge, die vorher noch nie passiert sind.«
Eine so hohe Rate an »Kollateralschäden« ist nicht nur im Vergleich zu dem, was die israelische Armee früher für akzeptabel hielt, sondern auch im Vergleich zu den Kriegen, die die Vereinigten Staaten im Irak, in Syrien und in Afghanistan führen, außergewöhnlich.
General Peter Gersten, stellvertretender Befehlshaber für Operationen und Nachrichtendienste im Kampf gegen Isis im Irak und in Syrien, erklärte 2021 gegenüber einer US-Verteidigungszeitschrift, dass ein Angriff, bei dem 15 Zivilisten zu Schaden gekommen seien, von der üblichen Vorgehensweise abweiche; um ihn durchzuführen, habe er eine Sondergenehmigung vom Leiter des US-Zentralkommandos, General Lloyd Austin, einholen müssen, der heute Verteidigungsminister ist.
»Uns wurde gesagt: ›Bombardiert alles, was ihr könnt.‹«
Alle für diese Untersuchung befragten Quellen sagten, dass die Massaker der Hamas am 7. Oktober und die Entführung der Geiseln die Feuerpolitik der Armee und den Grad der Kollateralschäden stark geprägt hätten. »Am Anfang war die Atmosphäre schmerzvoll und rachsüchtig«, sagte B., der unmittelbar nach dem 7. Oktober in die Armee eingezogen wurde und in einem Einsatzraum für Zielpersonen diente. »Die Regeln waren sehr lax. Sie zerstörten vier Gebäude, wenn sie wussten, dass sich die Zielperson in einem von ihnen befand. Es war Wahnsinn.«
»Es gab eine Dissonanz: Einerseits waren die Leute hier frustriert, dass wir nicht genug angriffen«, so B. weiter. »Andererseits sieht man am Ende des Tages, dass weitere tausend Menschen im Gazastreifen gestorben sind, die meisten von ihnen Zivilisten.«
»In den Reihen der Profis herrschte Hysterie«, sagte D., der ebenfalls unmittelbar nach dem 7. Oktober eingezogen wurde. »Sie wussten überhaupt nicht, wie sie reagieren sollten. Das Einzige, was sie zu tun wussten, war, wie die Verrückten zu bombardieren, um zu versuchen, die Fähigkeiten der Hamas zu zerstören.«
D. betonte, dass ihnen nicht ausdrücklich gesagt worden sei, dass das Ziel der Armee »Rache« sei, aber er brachte zum Ausdruck, dass, »sobald jedes Ziel, das mit der Hamas in Verbindung gebracht wird, legitim ist, und fast jeder Kollateralschaden gebilligt wird, es klar ist, dass Tausende von Menschen getötet werden. Selbst wenn offiziell jedes Ziel mit der Hamas in Verbindung gebracht wird, verliert es jede Bedeutung, wenn die Politik so lax ist.«
A. benutzte auch das Wort »Rache«, um die Atmosphäre innerhalb der Armee nach dem 7. Oktober zu beschreiben. »Niemand hat darüber nachgedacht, was man danach tun wird, wenn der Krieg vorbei ist, oder wie es möglich sein wird, in Gaza zu leben und was man damit machen wird«, sagte A. »Uns wurde gesagt: Jetzt müssen wir die Hamas fertigmachen, egal was es kostet. Was immer ihr auch tun könnt, ihr müsst bombardieren.«
B., der ranghöchste Geheimdienstmitarbeiter, sagte, dass er im Nachhinein glaube, dass diese »unverhältnismäßige« Politik der Tötung von Palästinensern in Gaza auch Israelis gefährde, und dass dies einer der Gründe sei, warum er sich zu einem Interview bereit erklärt habe.
»Kurzfristig sind wir sicherer, weil wir der Hamas schaden. Aber ich denke, langfristig sind wir weniger sicher. Ich sehe, wie all die trauernden Familien im Gazastreifen – und das sind fast alle – in zehn Jahren die Motivation erhöhen werden, sich der Hamas anzuschließen. Und es wird für [die Hamas] viel einfacher sein, sie zu rekrutieren.«
In einer Erklärung gegenüber +972 und Local Call dementierte die israelische Armee vieles von dem, was uns die Quellen berichtet hatten, und behauptete, dass »jedes Ziel einzeln untersucht wird, während eine individuelle Bewertung des militärischen Vorteils und der durch den Angriff zu erwartenden Kollateralschäden vorgenommen wird … Die IDF führt keine Angriffe durch, wenn die durch den Angriff zu erwartenden Kollateralschäden im Verhältnis zum militärischen Vorteil übermäßig hoch sind.«
SCHRITT 5: BERECHNUNG DER KOLLATERALSCHÄDEN
»Das Modell hatte keinen Bezug zur Realität.«
Den Geheimdienstquellen zufolge wurde die Berechnung der israelischen Armee, wie viele Zivilisten in jedem Haus neben einem Ziel voraussichtlich getötet würden – ein Verfahren, das in einer früheren Untersuchung von +972 und Local Call untersucht wurde – mit Hilfe automatischer und ungenauer Instrumente durchgeführt. In früheren Kriegen verbrachten die Geheimdienstmitarbeiter viel Zeit damit zu überprüfen, wie viele Menschen sich in einem Haus befanden, das bombardiert werden sollte, wobei die Anzahl der Zivilisten, die getötet werden könnten, in einer »Zieldatei« aufgeführt wurde. Nach dem 7. Oktober wurde diese gründliche Überprüfung jedoch weitgehend zugunsten der Automatisierung aufgegeben.
Im Oktober berichtete die »New York Times« über ein von einer speziellen Basis im Süden Israels betriebenes System, das Informationen von Mobiltelefonen im Gazastreifen sammelt und dem Militär eine Echtzeitschätzung der Zahl der Palästinenser liefert, die aus dem nördlichen Gazastreifen nach Süden geflohen sind. Brigadegeneral Udi Ben Muha erklärte gegenüber der Zeitung: »Es ist kein 100-prozentig perfektes System – aber es liefert die Informationen, die man braucht, um eine Entscheidung zu treffen.« Das System funktioniert nach Farben: Rot markiert Gebiete, in denen sich viele Menschen aufhalten, und Grün und Gelb markieren Gebiete, die relativ frei von Bewohnern sind.
Die Quellen, die mit +972 und Local Call sprachen, beschrieben ein ähnliches System zur Berechnung von Kollateralschäden, das verwendet wurde, um zu entscheiden, ob ein Gebäude in Gaza bombardiert werden sollte. Sie sagten, dass die Software die Anzahl der Zivilisten, die vor dem Krieg in jedem Haus wohnten, errechnete – indem sie die Größe des Gebäudes und die Liste der Bewohner überprüfte – und dann diese Zahlen um den Anteil der Bewohner reduzierte, die das Viertel angeblich verlassen hatten.
Wenn die Armee beispielsweise annahm, dass die Hälfte der Bewohner eines Viertels weggezogen war, zählte das Programm ein Haus, in dem normalerweise zehn Menschen lebten, als ein Haus mit fünf Bewohnern. Um Zeit zu sparen, so die Quellen, habe die Armee die Häuser nicht wie bei früheren Operationen überprüft, um herauszufinden, ob die Schätzung des Programms tatsächlich zutraf.
»Das Modell hatte keinen Bezug zur Realität«, erklärte eine Quelle. »Es gab keine Verbindung zwischen denjenigen, die sich jetzt, während des Krieges, in dem Haus aufhielten, und denjenigen, die vor dem Krieg als dort wohnend angegeben waren. [In einem Fall] haben wir ein Haus bombardiert, ohne zu wissen, dass sich darin mehrere Familien gemeinsam versteckt hielten.«
Die Quelle sagte, dass die Armee zwar gewusst habe, dass solche Fehler auftreten könnten, aber dennoch dieses ungenaue Modell angewandt worden sei, weil es schneller war. Die Quelle sagte, dass »die Berechnung der Kollateralschäden völlig automatisch und statistisch erfolgte« und sogar Werte ergeben habe, die nicht ganzzahlig waren.
SCHRITT 6: BOMBARDIERUNG EINES FAMILIENHAUSES
»Sie haben eine Familie grundlos getötet.«
Die Quellen, die mit +972 und Local Call sprachen, erklärten, dass zwischen dem Moment, in dem Ortungssysteme wie »Wo ist Papa?« einen Offizier darauf hinweisen, dass eine Zielperson ihr Haus betreten hat, und der eigentlichen Bombardierung manchmal eine beträchtliche Lücke klaffe – was dazu führe, dass ganze Familien getötet würden, auch ohne dass das Ziel der Armee getroffen werde. »Es ist mir schon oft passiert, dass wir ein Haus angegriffen haben, aber die Person gar nicht zu Hause war«, sagte eine Quelle. »Das Ergebnis ist, dass man eine Familie ohne Grund getötet hat.«
Drei Geheimdienstquellen berichteten gegenüber +972 und Local Call, dass sie Zeuge eines Vorfalls gewesen seien, bei dem die israelische Armee das Privathaus einer Familie bombardierte und sich später herausstellte, dass das Ziel des Angriffs gar nicht im Haus war, da keine weitere Überprüfung in Echtzeit durchgeführt wurde.
»Manchmal war [die Zielperson] vorher zu Hause und ging dann nachts woanders schlafen, zum Beispiel im Untergrund, und sie wussten nichts davon«, sagte eine der Quellen. »Es gibt Zeiten, in denen man den Standort doppelt überprüft, und es gibt Zeiten, in denen man einfach sagt: ›Okay, er war in den letzten paar Stunden im Haus, also kann man einfach bombardieren.‹«
Eine andere Quelle beschrieb einen ähnlichen Vorfall, der sie betroffen machte und sie dazu veranlasste, für diese Recherche befragt zu werden. »Wir gingen davon aus, dass die Zielperson um 20 Uhr zu Hause war. Schließlich bombardierte die Luftwaffe das Haus um drei Uhr morgens. In dem Gebäude, das wir bombardiert haben, waren noch zwei andere Familien mit Kindern.«
In früheren Kriegen im Gazastreifen hat der israelische Geheimdienst nach der Ermordung menschlicher Zielpersonen eine Bombenschadensbewertung [orig.: »bomb damage assessment«] (BDA) durchgeführt – eine routinemäßige Überprüfung nach dem Angriff, um festzustellen, ob der ranghohe Kommandeur getötet wurde und wie viele Zivilisten mit ihm zusammen ums Leben kamen. Wie in einer früheren Untersuchung von +972 und Local Call aufgedeckt wurde, beinhaltete dies das Abhören von Telefongesprächen von Angehörigen, die ihre Lieben verloren hatten. Im gegenwärtigen Krieg sei dieses Verfahren jedoch zumindest in Bezug auf die mit Hilfe der Künstlichen Intelligenz markierten niedrigrangigen Kämpfer abgeschafft worden, um Zeit zu sparen, heißt es. Die Quellen sagten, sie wüssten nicht, wie viele Zivilisten bei den einzelnen Angriffen tatsächlich getötet worden seien, und bei den verdächtigen Hamas- und PIJ-Aktivisten mit niedrigem Rang, die durch KI gekennzeichnet sind, wüssten sie nicht einmal, ob das Ziel selbst getötet worden sei.
»Man weiß nicht genau, wie viele und wen man getötet hat«, sagte eine Geheimdienstquelle gegenüber Local Call im Rahmen einer früheren Untersuchung, die im Januar veröffentlicht wurde. »Nur wenn es sich um hochrangige Hamas-Kräfte handelt, folgt man dem BDA-Verfahren. In den übrigen Fällen ist das egal. Man bekommt einen Bericht von der Luftwaffe darüber, ob das Gebäude gesprengt wurde, und das war’s. Man hat keine Ahnung, wie viel Kollateralschaden es gab; man geht sofort zum nächsten Ziel über. Der Fokus lag darauf, so viele Ziele wie möglich zu schaffen, und das so schnell wie möglich.«
Aber während das israelische Militär nach jedem Angriff weitermachen kann, ohne sich mit der Zahl der Opfer zu befassen, berichtet Amjad Al-Sheikh, der Bewohner von Shuja'iya, der elf seiner Familienmitglieder bei dem Bombardement am 2. Dezember verloren hat, dass er und seine Nachbarn immer noch nach Leichen suchten.
»Bis jetzt liegen noch immer Körper unter den Trümmern«, sagte er. »14 Wohngebäude wurden bombardiert, in denen sich die Bewohner befanden. Einige meiner Verwandten und Nachbarn sind noch immer verschüttet.«
Wir danken den israelischen Magazinen +972 und Local Call für die Erlaubnis zur Übersetzung und Veröffentlichung des im Original unter »›Lavender‹: The AI machine directing Israel’s bombing spree in Gaza« publizierten Artikels. Der Verfasser Yuval Abraham ist ein israelischer Journalist und Filmemacher aus Jerusalem. Nachdem sein Dokumentarfilm »No Other Land« auf der Berlinale prämiert worden war, warfen ihm deutsche Medien und Politiker wegen seiner zusammen mit Basel Adra gehaltenen Dankesrede Antisemitismus vor.