Skip to content

„Assistenz“ beim Bombardement in Gaza: Was bedeutet „Künstliche Intelligenz“ im urbanen Krieg?

Der Screenshot zeigt Seite 1 des Artikels in dem IMI BeitragErste Veröffentlichung: Habsora

Bereits Ende November 2023 hatte der israelische Journalist Yuval Abraham im +972Mag und der hebräischen Zeitung Local Call einen vielbeachteten Bericht veröffentlicht, wonach die israelische Armee (IDF) in großem Maßstab Künstliche Intelligenz (KI) einsetze, um Ziele zu identifizieren, die anschließend in Gaza bombardiert werden.[1] Im Mittelpunkt stand damals ein System namens „Habsora“, auf Englisch meist mit “The Gospel” übersetzt. Der Beitrag basierte im Wesentlichen auf Aussagen aktiver und ehemaliger israelischer Militärs, die im weiteren Sinne mit der Zielauswahl beschäftigt waren und angaben, „Habsora“ basiere auf KI und ermögliche es, in großer Geschwindigkeit Ziele zu „produzieren“. Die Anwendung von Habsora und anderen datenverarbeitenden Systemen hat demnach dafür gesorgt oder dazu beigetragen, dass der IDF bei ihrer massiven Luftkampagne über dicht besiedeltem Gebiet nicht die Ziele ausgingen und dieses massive Bombardement in seiner Intensität überhaupt durchgeführt werden konnte. Zugleich habe es dazu geführt, dass Angriffe mit erwartbar hohen zivilen Opferzahlen, z.B. auf sog. „Power Targets“ (mehrstöckige zentrale Wohngebäude oder Verwaltungsgebäude) überhaupt ausgeführt worden seien. Bereits damals wurde der Vorwurf geäußert und mit Zitaten unterlegt, wonach die automatisch generierten Ziele zwar nochmal von Menschen bestätigt, dafür aber jeweils nur sehr kurze Zeit aufgewendet worden wären. Die Darstellung schien durchaus plausibel angesichts der etwa 1.000 Ziele, die in der ersten Woche täglich auf einer Fläche angegriffen wurden, welche nur etwas größer ist, als das Gebiet der Stadt München. Nach weiteren zwei Wochen hatte sich die Zahl der aus der Luft angegriffenen Ziele bereits auf 12.000 erhöht und wurde bis 11. Dezember sogar mit 22.000 angegeben.

Völkerrechtlich wären die IDF bei jedem Angriff, bei dem auch mit zivilen Opfern zu rechnen ist, verpflichtet, den absehbaren militärischen Nutzen mit den erwartbaren zivilen Opfern in ein Verhältnis zu setzen und abzuwägen. Diese Verpflichtung dürfte bei nahezu allen Zielen bestanden haben und ihre Einhaltung lässt sich angesichts der schieren Masse angegriffener Ziele kaum plausibel darstellen – es sei denn, die Abwägung wäre auf der Grundlage automatisiert ausgewerteter Daten und maschinell erstellter Empfehlungen erfolgt, wie es der Beitrag von Ende November 2023 nahelegt. Die Informationsstelle Militarisierung hat deshalb Mitte Dezember vermutet,[2] dass die IDF sogar ein Interesse daran gehabt haben könnten, dass der großflächige Einsatz von KI bei der Zielfindung bekannt wird, um ihrem Vorgehen zumindest oberflächlich den Anstrich einer – neuartigen – völkerrechtlichen Legitimität zu verleihen, wonach große Teile der gebotenen „Abwägung“ an vermeintlich „intelligente“ datenverarbeitende Systeme delegiert wurden. Die Opferzahlen, die zum Zeitpunkt dieser ersten Veröffentlichung kursierten, unterschieden sich kaum von denen, die bei einer vollkommen willkürlichen Bombardierung eines dicht besiedelten Gebietes erwartbar wären. Der Autor Yuval Abraham bezifferte diese bis zum Waffenstillstand vom 23. November auf 14.800, wovon etwa 6.000 Frauen und 4.000 Kinder gewesen seien. Die IDF hingegen schätzten die Zahl der getöteten Militanten etwa zum gleichen Zeitpunkt auf 1.000 bis 3.000.

Lavendar und „Daddy’s Home?“

In einer weiteren Publikation vom 3. April 2024 in Kooperation mit dem britischen Guardian beschrieb Yuval Abraham basierend auf den Aussagen von sechs Beteiligten der IDF zwei weitere Systeme, die an der Zielauswahl der IDF beteiligt sein sollen.[3] Dabei handelt es sich einerseits um ein System namens „Lavender“ (Lavendel), welches Listen vermeintlicher militanter Angehöriger der Hamas und des Islamischen Dschihads erstelle, andererseits eine Software mit dem ausgesprochen zynischen Namen „Daddy’s Home?“ welches Alarm schlage, wenn solche Personen die ihnen zugeordnete Wohnung beträten. Lavender arbeite demnach KI-basiert und werte die Daten aus, die der israelische Geheimdienst in einem System der Massenüberwachung über die meisten der 2,3 Mio. Bewohner*innen Gazas gesammelt habe. Mithilfe Maschinellen Lernens werde jeder dieser Personen ein Wert zwischen eins und einhundert zugeordnet, der die Wahrscheinlichkeit ausdrücke, nach der es sich um ein militantes Mitglied der beiden Organisationen handele. Nach wechselnden Vorgaben erzeugte das System auf dieser Grundlage Listen so genannter Human Targets, die in der Spitze 37.000 Menschen umfasst habe, die dann als legitime Ziele für gezielte Angriffe gegolten hätten, selbst wenn dabei auch Zivilisten getötet würden. Auszüge dieser Listen mit hunderten Identitäten seien dann in Systeme wie Daddy’s Home? eingespeist worden, wodurch die mit ihnen assoziierten Wohneinheiten in dem Moment als Ziele vorgeschlagen worden seien, wo sie diese (vermeintlich) betraten. Inwiefern diese beiden nun benannten Systeme mit Habsora interagieren, das v.a. Gebäude für die Bombardierung identifiziert haben soll, bleibt dabei etwas unklar.

Der Umfang und die jeweilige Auswahl von Identitäten, die so als potentielle Ziele definiert wurden, sei nicht auf Führungsebene erfolgt, sondern recht freihändig von einzelnen Beteiligten. Demgegenüber scheint es so, als sei die militärische Führung dafür verantwortlich gewesen, wechselnde Zahlen festzulegen, die angaben, wie viele Zivilisten bei der Tötung eines einfachen Zieles in Kauf genommen werden dürften. In der ersten Woche des Krieges hätten hier keine Restriktionen bestanden, später habe diese Zahl mal 20 und manchmal auch fünf betragen. Für hochrangige, persönlich bekannte Ziele seien jedoch in einzelnen, dokumentierten Fällen auch drei und gelegentlich gar vierstellige Opferzahlen in Kauf genommen worden. Etwas unklar bleibt, auf welcher Grundlage die Zahl potentieller ziviler Opfer geschätzt wurde. Der Journalist Yuval Abraham zitiert zumindest eine seiner Quellen mit der Aussage, man habe die Menschen nicht wirklich gezählt, weil man nicht gewusst habe, wer zuhause ist und wer nicht. Später wird etwas ausführlicher ein System beschrieben, welches auf Berechnungen basierte, die eine Software vor dem Krieg angestellt habe, um zu schätzen, wie viele Personen in einem Gebäude leben. Diese Zahl sei dann jeweils mit einem Faktor multipliziert worden, der den Anteil derjenigen schätzte, die insgesamt bereits aus dem jeweiligen Gebiet geflohen seien. „Dieses Modell hatte keinen Bezug zur Realität“ wird eine der Quellen zitiert. Mehrere Quellen hätten bestätigt, dass anders als in früheren Kriegen das jeweilige Ziel nicht genauer beobachtet worden wäre, um zu einer seriöseren Schätzung der (anwesenden) Zivilisten zu kommen.

Einblicke in die Technik und ihre Anwendung

Bei der Software zur Zielerkennung handelt es sich natürlich um komplizierte und hochgradig sensible Informationen, sodass auch die ausführliche Darstellung Abrahams auf der Grundlage anonymer Quellen nur bedingte Schlussfolgerungen erlaubt. Teilweise bleibt unklar, ob sich die jeweiligen Angaben auf Lavender, Daddys Home? oder andere Systeme beziehen, die – mit ihnen verbunden oder nicht – in ähnlichen Funktionen zum Einsatz kommen. Für Lavender wird allerdings recht eindeutig nahegelegt, dass es auf Künstlicher Intelligenz im engeren Sinne des Maschinellen Lernens beruhe und mit Daten über individuell dem Geheimdienst „bekannte“ Mitglieder der Hamas und des Islamischen Dschihad „trainiert“ worden sei. Später sei jedoch einer Quelle zufolge die Entscheidung getroffen worden, auch Angestellte des (von der Hamas geführten) Ministeriums für innere Sicherheit einzubeziehen, bei denen es sich um Polizisten oder Mitglieder der Zivilverteidigung handeln kann, die nicht als „Militante“ und auch im völkerrechtlichen Sinne nicht als Kombattanten betrachtet werden könnten. Später sei das so trainierte System dann mit den verfügbaren Daten mehr oder weniger auf die gesamte Bevölkerung angewandt worden, um tausende Menschen zu identifizieren, die damit buchstäblich zum Abschuss freigegeben wurden.

In den ersten zwei Wochen des Krieges sei ein „zufälliges Sample von mehreren hundert“ so identifizierten Zielen „händisch“ geprüft worden, woraus sich eine Zuverlässigkeit von 90% ergeben hätte. Seit dem sei das System großflächig bei der Zielfindung zum Einsatz gekommen und seine Ausgabe habe quasi die Funktion eines militärischen Befehls gehabt – ohne jede Verpflichtung, die zugrunde liegenden Rohdaten oder die Variablen, auf denen die Einschätzung basierte, zu prüfen. Die einzige Überprüfung, die das Protokoll vor der Anordnung eines Luftschlags vorgesehen habe, sei die Bestätigung gewesen, dass es sich bei der Zielperson (nicht den erwartbaren Kollateral-Opfern) tatsächlich um eine männliche Person handelt. Dieser Prozess habe nach verschiedenen Angaben „nur wenige Sekunden“ bzw. „20 Sekunden“ in Anspruch genommen und meist darin bestanden, dass man in eine mit dieser Person assoziierte Audio-Aufnahme hineingehört und auf diese Art das Geschlecht „bestimmt“ habe.

Zugleich schockierend, wie auch plausibel sind die Angaben, die zum Battle Damage Assessment (BDA) gemacht werden, also zur einem Angriff üblicherweise folgenden Überprüfung des angerichteten Schadens bzw. militärischen Erfolges. Sie ermöglicht eine Einschätzung, ob das militärische Ziel erreicht wurde und wie viele zivile Opfer dabei getötet oder verwundet wurden. Dies fand bei den Luftschlägen in Gaza wohl flächendeckend kaum statt. Plausibel ist dies aus verschiedenen Gründen, darunter die stark schwankenden und ungenauen Angaben der IDF zur Zahl getöteter Hamas-Kämpfer einerseits wie auch die schiere Unmöglichkeit angesichts der großflächigen Zerstörung. Es mag dies auch ein Grund sein, warum Israel auch vor internationalen Gerichten den meist von den Hamas-Behörden stammenden Angaben zur Zahl der Getöteten, Verwundeten und Vermissten keine eigenen, seriösen Schätzungen entgegenhalten kann. Am Rande erfahren wir im Beitrag Abrahams auch, wie dieses Assessment früher erfolgt ist: Durch das Abhören von Telefonaten der Verwandten der anvisierten Zielpersonen.

Überhaupt scheint sich viel der vermeintlich fortschrittlichen Überwachungstechnologie neben Drohnenaufnahmen letztlich im Orten, Abhören und Analysieren von Mobilfunkdaten zu erschöpfen. So werden als konkrete Quellen für die Einstufung durch Lavender genannt: “visuelle Informationen, Mobilfunkdaten, Verbindungen bei den Social Media, Informationen vom Schlachtfeld, Telefonkontakte, Fotos“. Etwas deutlicher wird dies noch bei den Angaben einer Quelle zu möglichen Fehleinschätzungen durch Lavender, da häufig Mobiltelefone ausgetauscht und verliehen würden. Auch die Einschätzung des Anteils der Bevölkerung, der bereits aus einem Gebiet geflohen sei, beruht demnach auf der Auswertung von Mobilfunkdaten. Es gibt auch keine Hinweise darauf, dass es sich bei Daddy’s Home? um viel mehr handelt als eine Handy-Ortung, die Alarm schlägt, wenn der Verdächtige (oder eine andere Person) mit seinem Gerät an den Koordinaten erfasst wird, die als seine Wohnung verzeichnet ist. Das bedeutet: fast alles, was Israel hier vorgeworfen wird, scheint weniger von besonders fortgeschrittener Technologie abzuhängen als dem Willen, überall vorhandene Daten für eine umfassende Kriegführung einzusetzen – und natürlich dem umfassenden Zugriff auf Informationen, den Israel in Gaza hat.

Besonders brutale Kriegführung

Während in diesem Beitrag der Einsatz dieser Technologien durch Israel in Gaza im Mittelpunkt steht, offenbart der Artikel von Abraham andere Aspekte der israelischen Kriegführung, die rechtlich wahrscheinlich noch deutlich schwerwiegender sind und deren Zusammenhang mit den verwendeten Technologien zumindest kein unmittelbarer ist. Dies gilt v.a. für die politisch definierten Einsatzregeln auf verschiedenen Ebenen. So wurden in den vergangenen militärischen Auseinandersetzungen (vermeintliche) Militante niederen Ranges von Israel angeblich nicht als Ziele definiert, die jenseits konkreter militärischer Auseinandersetzungen ins Visier genommen werden und auch um den Preis ziviler Opfer getötet werden konnten. Eine der Quellen benutzt hierfür den Begriff eines „Müll-Ziels“, dessen militärische Relevanz so gering sei, dass es den Einsatz einer Bombe gar nicht wert wäre. Gerade deshalb, so ein weiteres Zitat, sei für solche Ziele „dumme“, ungelenkte Munition eingesetzt worden, die wesentlich billiger sei, aber eben auch gleich das ganze Gebäude zerstöre und demnach erwartbar mehr zivile Opfer fordere. Am Rande wird hier auch ein Grund genannt, welcher diesen oft kritisierten, großflächigen Einsatz ungelenkter, aber sehr schwerer Munition jenseits der damit verbundenen und vermutlich auch beabsichtigten Grausamkeit begründet. Die teurere, präzisere Munition sollte für den Fall „gespart“ werden, falls doch noch andere, militärisch schlagkräftigere Akteure aus der Region in größerem Stil in den Konflikt eingreifen sollten.

Völkerrechtlich besonders problematisch erscheint eine Entscheidung, welche die israelische Armeeführung getroffen habe und die im Zusammenhang mit Daddy’s Home? zu stehen scheint. Mehrere Quellen hätten demnach angegeben, dass identifizierte Ziele systematisch und absichtlich nicht in militärisch genutzten Räumlichkeiten angegriffen worden seien, während sie sich (zumindest mutmaßlich) an der militärischen Auseinandersetzung beteiligt hätten, sondern eben wenn sie ihre privaten Unterkünfte betreten hätten, weil dies einfacher sei. Der Vorwurf, dass damit eine Absicht verbunden wäre, die ganze Familie zu bestrafen und auszulöschen, wird in diesem Zusammenhang nicht erhoben – er drängt sich jedoch auf.

Gegendarstellung der IDF

Der Artikel von Yuval Abraham zu Lavender und Daddy’s Home? wurde in Kooperation mit dem britischen Guardian veröffentlicht, der am selben Tag seinerseits einen Beitrag über die Recherchen von Abraham herausbrachte und eine Stellungnahme der IDF veröffentlichte.[4]

Am deutlichsten weisen die israelischen Streitkräfte darin den Vorwurf zurück, dass irgendeine Richtlinie („policy“) existiere „zehntausende Menschen in ihren Wohnungen zu töten“. Der Existenz der Software „Daddy’s Home?“ und auch einer weit verbreiteten Praxis, vermeintliche Militante unter Inkaufnahme ziviler Opfer in ihrer Wohnstätte zu töten, wird damit jedoch genau genommen nicht widersprochen. Es wird jedoch ausführlich versichert, dass die IDF ihren völkerrechtlichen Verpflichtungen nachkämen und ihre Protokolle vorschreiben würden, dass „für jedes Ziel eine individuelle Bewertung des angestrebten militärischen Vorteils und der erwarteten Kollateralschäden“ vorgenommen würde. „Die IDF führen keine Angriffe durch, wenn die erwarteten Kollateralschäden in einem exzessiven Verhältnis zum militärischen Nutzen stehen… Die IDF überprüfen Ziele vor der Durchführung eines Angriffs und wählen die angemessene Munition in Übereinstimmung mit operationellen und humanitären Erwägungen unter Berücksichtigung der Einschätzungen zu strukturellen und geografischen Eigenschaften des Ziels, der Umgebung des Ziels, möglichen Auswirkungen auf Zivilisten und kritische Infrastrukturen in der Nähe und weiteren [Variablen].“ Diese Formulierungen sind nahezu deckungsgleich mit den völkerrechtlichen Vorgaben. Wie glaubwürdig sie angesichts des Ausmaßes der Zerstörungen und der vagen Angaben über getötete Kombattanten sind, wird freilich unterschiedlich bewertet und beschäftigt gerade unterschiedliche internationale Gerichte.

Ausführlicher ist die Stellungnahmen auch zum Einsatz von KI bei der Zielfindung: „Anders als behauptet wird, nutzen die IDF kein KI-System, das Terroristen identifiziert oder vorhersagt, ob eine Person ein Terrorist ist. Informations-Systeme sind lediglich Werkzeuge für Analysten im Prozess der Zielidentifikation. Unserer Richtlinien sehen vor, dass Analysten unabhängige Untersuchungen durchführen, um zu verifizieren, dass die Ziele den relevanten Definitionen entsprechen in Übereinstimmung mit dem internationalen Recht und weiteren Einschränkungen, die in unseren Richtlinien festgelegt wurden.“

Bei dem angesprochenen „System“ (gemeint ist vermutlich Lavender) handle es sich „nicht um ein System, sondern einfach um eine Datenbank, deren Zweck darin besteht, Aufklärungsdaten miteinander zu verknüpfen und aktuelle Ebenen von Informationen zu militärischen Angehörigen terroristischer Organisationen zu erzeugen. Es stellt keine Liste mit bestätigten militärischen Angehörigen dar, die für Angriffe autorisiert wären.“

Tatsächlich kann hier an einigen Punkten beides wahr sein: Darstellung und Gegendarstellung. Die Grenzen zwischen einer Datenbank, die Informationen „verknüpft“ bzw. aufarbeitet und einer Künstlichen Intelligenz sind eine Frage der Definition und tw. so fließend, wie die Grenze zwischen einem System, das eine Datenbank ist und einer KI, die auf diese zugreift. Wie gesagt legt auch der Beitrag von Abrahams nicht unbedingt nahe, dass hier grundlegend neue Technologien zum Einsatz kommen. Der Knackpunkt ist allerdings das unscheinbare Wort „unabhängig“. Wenn die Informationssysteme Werkzeuge sind, welche die Informationen aufbereiten, ist unwahrscheinlich, dass die Analysten wirklich „unabhängig“ von diesen entscheiden. Ob bereits bei 20 Sekunden oder auch drei Minuten auf der Grundlage dieser (und anderer) Werkzeuge von einer „unabhängigen Überprüfung“ gesprochen werden kann, ist wiederum Definitionsfrage. Diese Definitionen werden gerade verschoben und ausgehandelt. Das Verhältnis zwischen den Eigendynamiken der Technik und der vermeintlichen menschlichen Kontrolle ist prekär und mit jedem Krieg und jedem Massaker verändert es sich weiter zulasten des gesunden Menschenverstandes.

Anmerkungen

[1]     Yuval Abraham: ‘A mass assassination factory’ – Inside Israel’s calculated bombing of Gaza, 30.11.2023, https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/

[2]     Christoph Marischka: Gaza – KI-basierte Bombardierung, IMI-Standpunkt 2023/049, 8.12.2024, https://www.imi-online.de/2023/12/08/gaza-ki-basierte-bombardierung/.

[3]     Yuval Abraham: ‘Lavender’ – The AI machine directing Israel’s bombing spree in Gaza, 3.4.2024, https://www.972mag.com/lavender-ai-israeli-army-gaza/.

[4]     IDF via theguardian.com: Israel Defence Forces’ response to claims about use of ‘Lavender’ AI database in Gaza, 3.4.2024, https://www.theguardian.com/world/2024/apr/03/israel-defence-forces-response-to-claims-about-use-of-lavender-ai-database-in-gaza.Quelle: Christioph Marischka in IMI-Analyse 2024/22

Antimilitarismus braucht Analysen! IMI braucht Euch!
Das Spendenkonto ist DE64 6415 0020 0001 6628 32 (IBAN) bei der KSK Tübingen (BIC: SOLADES1TUB)



cronjob