Bij de afschuwelijke aanval van Hamas op 7 oktober 2023 werden 1200 onschuldige burgers gedood (695 Israëlische burgers, 373 veiligheidsmedewerkers en 71 buitenlanders) en ruim 250 burgers werden gegijzeld. De wereld is sindsdien getuige geweest van de vernietiging van Gaza, met meer dan 47.000 doden, overwegend vrouwen en kinderen, en 110.000 gewonden.
In werkelijkheid gaat het om veel meer doden, omdat velen stierven door ziektes, kou en honger, omdat Israël de Gazastrook afsloot voor vrijwel alle eerste levensbehoeften. Vrijwel alle gebouwen zijn beschadigd of helemaal platgegooid. De gehele burgerlijke infrastructuur is vernietigd. Vrijwel alles en iedereen in Gaza is doelwit geweest, waaronder scholen, ziekenhuizen, moskeeën, waterzuiveringsinstallaties, energiecentrales, ambulances, landbouwgrond, VN-personeel en journalisten.

Met als gevolg dat nagenoeg de gehele bevolking ontheemd is en op straat leeft, in tentenkampen die regelmatig door Israël gebombardeerd zijn.
Amerikaanse inlichtingendienst voedt AI-moordsysteem
Deze grootschalige vernietiging had niet plaats kunnen vinden zonder de inzet van een door AI gedreven systeem. Palestijns-Israëlische journalisten onthulden in +972 Magazine en Local Call 1) dat het Israëlische leger op grote schaal gebruik maakt van algoritmen en artificiële intelligentie (AI) om potentiële doelwitten te identificeren. Enorme hoeveelheden surveillancegegevens worden verzameld (telefoon, tekst en digitaal) om lange dodenlijsten van doelwitten te maken. En aan die buit worden de gegevens van de NSA-intercepties van Palestijnen in de Verenigde Staten die met hun families in Gaza communiceerden, toegevoegd 2).
Lavendel, Evangelie en Where’s Daddy?
Op basis van interviews met betrokkenen binnen het Israëlische Defensieleger (IDF) maakt journalist Yuval Abraham duidelijk dat er drie van zulke AI-systemen zijn: Lavendel, Evangelie en Where’s Daddy? Abraham sprak met bronnen uit het Israëlische leger en de inlichtingendiensten. De samenhang tussen die systemen wordt treffend beschreven in een artikel in De Groene: “Op basis van grote hoeveelheden data voorspelt Lavendel welke personen er bij de militaire tak van Hamas horen, identificeert Evangelie de gebouwen waar deze mensen wonen en werken, en berekent Where’s Daddy? vervolgens wanneer deze persoon thuis komt, zodat die daar kan worden aangevallen.” 3)
Het Lavendel-systeem is oorspronkelijk ontworpen door de elite-inlichtingenafdeling van het Israëlische leger Unit8200, om alle verdachte agenten in de militaire vleugels van Hamas en de Palestijnse Islamitische Jihad (PIJ), inclusief laaggeplaatste, te markeren als potentiële bombardementsdoelen. Op de website van de Israel Defence Forces (IDF) is te lezen dat het systeem het mogelijk maakt om heel snel doelwitten te genereren. Met behulp van kunstmatige intelligentie en inlichtingenmateriaal doet het daarna een aanbeveling. “Het genereert honderd nieuwe doelwitten op een dag”, zo zegt voormalig IDF-chef Aviv Kochavi trots. “Om dat in perspectief te plaatsen: in het verleden produceerden we vijftig doelwitten per jaar.” Lavendel wees zo ongeveer 37 duizend doelwitten aan. De locaties van de telefoons van deze doelwitten waren bekend, omdat het telecomnetwerk van Gaza onder Israëlische controle staat. Ook kon het Israëlische leger zien hoeveel mobiele telefoons er in de buurt van een doelwit zijn.
Amerikaanse Big Tech levert de Cloud
De AI-systemen genereren een gigantische hoeveelheid data. Amazon Web Services levert clouddiensten en servers die worden gebruikt om de enorme hoeveelheden bewakingsgegevens over Palestijnen in Gaza op te slaan 4). Een Israëlische militaire commandant deelde in juli 2024 publiekelijk dat het leger momenteel civiele cloudinfrastructuur van de bedrijven Amazon, Google en Microsoft gebruikt om hun genocidale militaire capaciteiten in Gaza uit te breiden. Het Amerikaanse bedrijf Palantir 5) wordt ook gebruikt om AI-systemen voor de IOF (Israël Occupation Forces) te bedienen, de naam Palantir verwijst naar de ‘kijkstenen’ in Lord of the Rings.
In de beginfase van de oorlog kregen officieren van het leger massaal toestemming om de dodenlijsten van Lavendel over te nemen, zonder deze grondig te controleren. Leger-personeel kreeg zo’n 20 seconden de tijd om het doelwit te autoriseren, in de praktijk was er alleen een check op de stem.

Was het een man, dan was deze ten dode opgeschreven, ging het om een vrouwenstem, werd de aanval afgekeurd, omdat er geen vrouwen zijn in de gelederen van de militaire vleugels van Hamas en PIJ 6). Deze werkwijze roept grote twijfels op over de mate waarin militairen nog in staat zijn de beslissingen van deze AI-systemen te begrijpen en kritisch te controleren. Het Israëlisch leger wist uit eerder onderzoek van de doelmatigheid van Lavendel, dat zo’n 10% van de dodenlijsten feitelijk onschuldige burgers betrof. En toch ging men er op grote schaal mee door.
Thuis bombarderen met een ongeleide bom
Bovendien viel het Israëlische leger de beoogde personen alleen aan, als ze thuis waren (targeting via ‘Where’s Daddy’), meestal ’s nachts als hun hele familie thuis was. “We waren niet geïnteresseerd in het doden van [Hamas]-agenten enkel wanneer ze in een militair gebouw waren of bezig waren met een militaire activiteit,” vertelde A., een inlichtingenofficier, aan +972 en Local Call. “Integendeel, de IDF bombardeerde ze zonder aarzeling in huizen, als eerste optie. Het is veel gemakkelijker om het huis van een gezin te bombarderen. Het systeem is gebouwd om in dit soort situaties naar hen te zoeken.”

Daarbij werden er, volgens de bronnen, vooral ongeleide raketten gebruikt: zogenaamde ‘domme’ bommen, die hele gebouwen bovenop hun bewoners kunnen vernietigen en aanzienlijke verliezen kunnen veroorzaken. “Je wilt geen dure bommen verspillen aan onbelangrijke mensen — het is erg duur voor het land en er is een tekort [aan die bommen],” zei C., een van de inlichtingenofficieren 7). De precisie-geleide raketten zijn namelijk een stuk duurder, het leger wilde de duurdere wapens sparen.
In een Whatsapp-groep zitten kan een dodelijke score opleveren
Lavender analyseert informatie die is verzameld over de meeste van de 2,3 miljoen inwoners van de Gazastrook via een systeem van massasurveillance 8). Vervolgens beoordeelt en rangschikt het systeem de waarschijnlijkheid dat elke specifieke persoon actief is in de militaire vleugel van Hamas of PIJ. Volgens bronnen geeft de machine bijna elke persoon in Gaza een beoordeling van 1 tot 100, die aangeeft hoe waarschijnlijk het is dat ze een militant zijn. De criteria werden opgerekt. Ging het eerst om Hamas-kopstukken, later werden ook junior-Hamasleden en vermeende laaggeplaatste militanten tot doelwit bestempeld. Het is aannemelijk dat er ook allerlei kenmerken werden ontwikkeld, om personen te beoordelen. Een individu met verschillende belastende kenmerken zal een hoge beoordeling krijgen en wordt zo automatisch een potentieel doelwit op de dodenlijst. Voorbeelden van dergelijke belastende kenmerken zijn: het in een Whatsapp-groep of in de telefooncontacten zitten met een bekende militant, elke paar maanden van mobiele telefoon wisselen, regelmatig van adres veranderen.
Kritiek op de onnauwkeurigheid van Lavendel werd niet geduld, alhoewel er wel vragen waren. “Hoe dicht moet iemand bij Hamas staan om door een AI-machine als gelieerd aan de organisatie te worden beschouwd?” zei een bron. Ook bij het beoordelen van een telefoon die eerder is gebruikt door een militant die is gemarkeerd voor moord. “In oorlog wisselen Palestijnen voortdurend van telefoon”, aldus de bron. “Mensen verliezen het contact met hun familie, geven hun telefoon aan een vriend of een vrouw, raken hem misschien kwijt. Er is geen manier om 100 procent te vertrouwen op het automatische mechanisme dat bepaalt welk [telefoon]nummer bij wie hoort.”
Te weinig doelwitten, dan lagere drempel
Naast de vraag over de legitimiteit van het samenstellen van dodenlijsten op basis van vage criteria, speelt ook mee hoe het systeem werd ingezet. Het leger vond het niet de moeite waard om bij laaggeplaatste militanten inlichtingenofficieren tijd te laten besteden aan het valideren van het doelwit. De AI-automatisering moest meehelpen om meer doelwitten voor moord te genereren. “In een dag zonder doelwitten (met voldoende ‘feature rating’ om een aanval te autoriseren), vielen we aan op een lagere drempel. We werden continue onder druk gezet: ‘Breng ons meer doelwitten’.”
B., de senior bron, legde uit dat wanneer de beoordelingsdrempel van Lavendel werd verlaagd, er meer mensen als doelwit voor aanvallen werden aangemerkt. “Op het hoogtepunt wist het systeem 37.000 mensen als potentiële menselijke doelen te genereren,” zei B. “maar de aantallen veranderden voortdurend, omdat het afhangt van waar je de lat legt voor wat een Hamas-agent is. Er waren tijden dat een Hamas-agent breder werd gedefinieerd, en toen begon de machine ons allerlei soorten burgerverdedigingspersoneel te brengen, politieagenten, aan wie het zonde zou zijn om bommen te verspillen.”
Geen realtime check
Soms zat er een aanzienlijke kloof tussen het moment dat het trackingsysteem Where’s Daddy? een agent waarschuwde dat een doelwit hun huis was binnengegaan, en het bombardement zelf. Dat leidde soms tot de dood van hele families, zelfs zonder dat het doelwit van het leger geraakt werd. “Het is me vaak overkomen dat we een huis aanvielen, maar de persoon was niet eens thuis”, zei een bron. “Het resultaat is dat je een familie zonder reden doodde.” De bronnen vertelden dat het vaak misging, omdat er geen realtime check was. Soms waren doelwitten eerder thuis en inmiddels weer weggegaan, in één geval was de hele familie al verhuisd en was een ander gezin ingehuisd, dat vervolgens geheel werd vermoord. Het is stuitend om in de onderzoeken te lezen hoe onzorgvuldig er met mensenlevens werd omgesprongen.

Israël weerspreekt met klem dat het op deze manier te werk gaat. Er gaat volgens de legerleiding altijd een grondige menselijke afweging aan vooraf voordat er gebombardeerd wordt. Hamas opereert vanuit woonwijken “en gebruikt de bevolking systematisch als levend schild”. Israël laat echter geen onafhankelijke onderzoekers toe om vast te kunnen stellen wat er precies is gebeurd, wat voor systeem Lavendel is en welke rol het speelt bij het doelgericht doden van Hamas-militanten en hun families.
Oorlogsvoering met algoritmen
Palantir CEO Alex Karp heeft betoogd dat “de kracht van geavanceerde algoritmische oorlogsvoeringssystemen nu zo groot is dat het gelijk staat aan het hebben van tactische kernwapens tegen een tegenstander met alleen conventionele wapens.”
Stop Killer Robots – een coalitie van ngo’s, waaronder Amnesty International – , pleit voor een verbod op dodelijke autonome wapens. Nederland is het eerste NAVO-land dat het Puls-systeem kocht van het Israëlische Elbit-Systems: ‘combat Proven’, aldus de aanprijzingen van het bedrijf. Technologie die zich heeft bewezen op het slagveld in Gaza. Puls is een autonoom artillerie-raketsysteem. Sinds 7 oktober 2023 wordt dit veel gebruikt door het Israëlische leger in de Gaza-oorlog. Een soldaat kan meerdere systemen tegelijk bedienen en kunstmatige intelligentie gebruiken om razendsnel nieuwe doelwitten te genereren, op basis van satelliet-data, of surveillancedata zoals door de AI-systemen die hier zijn beschreven.
Vredesorganisatie PAX Nederland pleit voor een internationaal onderzoek naar de beschreven werkwijze door het leger van Israël 9). Als de wapensystemen in Gaza voldoen, zal de vraag ernaar stijgen. Ook in Nederland. Het roept veel nieuwe vragen op. Wanneer is iets autonoom en wat is betekenisvolle controle? Kun je ethisch gebruikmaken van AI die op een onethische manier getraind is? Israëls willekeurige moordpartijen in Gaza maken duidelijk dat het tijd is om ook te beginnen met veel strengere regulering van de export van AI-systemen, zoals die o.a. ontwikkeld worden door Palantir. Systemen die, zoals CEO Alex Karp suggereerde, het digitale equivalent zijn van een massavernietigingswapen. Je gaat dood door de lijst waar jij en je familie op staat.
Schrijnend is dat ondanks de vele getuigenissen van schendingen van het humanitair recht door Israël, Nederland toch bereid is militair met Israël samen te blijven werken.
Wim van der Grinten
Géén defensieverdrag met Israël! – Onkruit Vergaat Niet
- https://www.972mag.com/lavender-ai-israeli-army-gaza/[↩]
- https://www.thenation.com/article/world/nsa-palantir-israel-gaza-ai/[↩]
- https://www.groene.nl/artikel/van-mens-naar-data-tot-doelwit-van-kamikazedrones[↩]
- https://www.972mag.com/cloud-israeli-army-gaza-amazon-google-microsoft/[↩]
- https://www.thenation.com/article/world/nsa-palantir-israel-gaza-ai/[↩]
- https://theconversation.com/gaza-war-israel-using-ai-to-identify-human-targets-raising-fears-that-innocents-are-being-caught-in-the-net-227422[↩]
- https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-airstrikes[↩]
- https://www.972mag.com/israeli-intelligence-chatgpt-8200-surveillance-ai/[↩]
- Voor Nederland lijkt genocide geen dealbreaker | Jacobin[↩]