Van Oekraïne tot Gaza: AI bepaalt in toenemende mate wie wordt aangevallen. De belofte van 'slimmere' oorlogen blijkt een gevaarlijke illusie.
De aanhoudende oorlog in Oekraïne wordt gekenmerkt door traditionele wapens en een loopgravenoorlog. Tegelijkertijd fungeert het als proeftuin voor de inzet van nieuwe technologieën en wapensystemen, waarvan vele kunstmatige intelligentie (AI) integreren. In het publieke debat gaat veel aandacht uit naar AI-gestuurde drones en hun rol in de verwoesting van Oekraïense steden en civiele infrastructuur. Toch is de gedocumenteerde inzet van AI in Oekraïne breder dan vaak wordt aangenomen. Zoals defensieanalisten hebben opgemerkt, betreft het meest wijdverspreide gebruik de toepassing van AI voor data-analyse op het slagveld. Hierbij worden uiteenlopende databronnen geïntegreerd ten behoeve van doelherkenning. In samenwerking met de VS en NAVO-bondgenoten spelen private technologiebedrijven zoals Palantir een voortrekkersrol in deze ontwikkelingen. Zij verschaffen het Oekraïense leger toegang tot hun software, AI-modellen en digitale platforms, en vervullen daarmee een cruciale functie in de besluitvorming over wie, wanneer en onder welke omstandigheden wordt aangevallen.
Ondertussen wordt de bombardementencampagne van de Israëlische Defensiemacht (IDF) in Gaza door experts omschreven als één van dodelijkste in de geschiedenis. Het is tevens één van de eerste militaire campagnes die deels door algoritmen wordt gecoördineerd. Volgens verklaringen van de IDF wordt AI ingezet voor allerlei uiteenlopende taken: van het identificeren en prioriteren van doelen tot het toewijzen van bepaalde wapensystemen. Het meest besproken aspect is echter het gebruik algoritmen en AI om potentiële doelwitten te identificeren. Volgens IDF-bronnen vertrouwde het leger in de eerste weken van de oorlog "bijna volledig" op AI-ondersteunde besluitvorming, waarbij "tot wel 37.000 Palestijnen als vermoedelijke militanten werden aangemerkt voor mogelijke luchtaanvallen". Daarmee wordt het gebruik van AI door de IDF direct in verband gebracht met de enorme omvang van de verwoesting en menselijke tol in Gaza.
NIEUWE REALITEIT
In de afgelopen jaren heeft het onderzoek naar AI in oorlogsvoering geleid tot een groeiende onderzoeksagenda binnen de Internationale Betrekkingen. De actuele ontwikkelingen in Oekraïne en Gaza onderstrepen de urgentie van deze debatten, maar sturen deze ook in een nieuwe richting. Ze laten zien dat AI-gedreven oorlogsvoering geen verre toekomstvisie is, maar een nieuwe realiteit waarmee zowel militairen als burgers geconfronteerd worden - met ingrijpende gevolgen voor het militair optreden en de specifieke vormen van burgerleed die daaruit voortvloeien.
Oorlogshandelingen worden in toenemende mate verricht door computerprogrammeurs en dataspecialisten.
De verdergaande integratie van AI in oorlogsvoering heeft enerzijds gevolgen voor de vraag 'wie' betrokken is bij de voorbereiding en uitvoering van militair geweld. Oorlogshandelingen worden in toenemende mate verricht door computerprogrammeurs en dataspecialisten, die op het eerste gezicht ver verwijderd lijken van het slagveld. Onder hen bevinden zich militairen, maar ook werknemers van startups en grote technologiebedrijven zoals Palantir, Google, Amazon en Microsoft - over wiens rol en verantwoordelijkheden binnen algoritmische oorlogsvoering we nog maar weinig weten.
Het bewijsmateriaal uit de oorlogen in Oekraïne en Gaza wijst er anderzijds op dat AI-technologieën het risico op bestaande vormen van burgerleed vergroten. Ze versterken voorspelbare patronen van burgerleed en brengen nieuwe vormen van schade met zich mee, waaronder de negatieve gevolgen van leven onder drones of permanente surveillance en de psychologische belasting van het niet weten welke gedragsmatige kenmerken in de data ertoe leiden dat burgers als doelwit worden aangemerkt.
MILITAIR-COMMERCIEEL COMPLEX
AI en het militaire domein zijn historisch gezien nauw verweven. De opkomst van AI als wetenschappelijke discipline was in de jaren 1950 en 1960 sterk afhankelijk van financiering van DARPA, het Amerikaanse onderzoeksinstituut voor militaire technologie. Veel van de recente ontwikkelingen en doorbraken in AI zijn een direct gevolg van DARPA onderzoeksfinanciering, zoals beeldherkenning, zelfrijdende auto's en computervertaling. AI wordt ook al veel langer toegepast in allerlei wapens. Dit geldt voor luchtafweersystemen zoals de Israëlische 'Iron Dome' die op machinesnelheid moeten kunnen beslissen of een inkomend projectiel vijandig is en uit de lucht moet worden gehaald, maar ook voor andere wapens zoals de kamikazedrone, die zich op een doelwit stort en daarbij zelf verloren gaat. Deze wapens worden nu op grote schaal ingezet in de oorlog in Oekraïne, maar werden al in de jaren 1980 ontwikkeld.
Palantir werd de technologische ruggengraat van de Amerikaanse aanvallen in Irak, Afghanistan en Syrië.
De laatste jaren leunen militaire organisaties steeds zwaarder op wijdverspreide surveillance en data van onder andere dronecamera's, satellietbeelden, telefoons en beveiligingscamera's om kennis over het slagveld te vergaren. Ze krijgen daarbij hulp van de grote technologiebedrijven. Een prominent voorbeeld is het Amerikaanse bedrijf Palantir, opgericht in 2003 door PayPal miljardair en durfkapitalist Peter Thiel, met financiële steun van de CIA. Het bedrijf ontwikkelt digitale omgevingen waarin gegevens uit uiteenlopende bronnen kunnen worden verzameld, gevisualiseerd en geanalyseerd. Naar verluidt speelde hun software een belangrijke rol bij de opsporing van Osama Bin Laden in 2011 en werd het vervolgens de technologische ruggengraat van de Amerikaanse aanvallen in Irak, Afghanistan en Syrië.
In de jaren daarna betraden meer commerciële technologiebedrijven het groeiende militair-commerciële complex. In 2017 ging Google een samenwerking aan met het Pentagon onder "Project Maven" met als doel het ontwikkelen van AI om enorme hoeveelheden dronebeelden van de VS te analyseren. Deze samenwerking was niet onomstreden. Project Maven leidde tot hevig verzet onder een groep Google medewerkers, waarna Google besloot het contract niet te verlengen. Het Pentagon zette Project Maven echter voort en trok onder andere Amazon, Microsoft en SpaceX aan. Snel daarna begon het Amerikaanse leger te experimenteren met vroege prototypes van Maven in Irak en Syrië, en werd de technologie ingezet tijdens de evacuatieoperatie in Kabul in 2021.
OEKRAÏNE
Na de Russische inval in Oekraïne werd deze oorlog al snel een nieuwe testomgeving voor dit systeem en het gebruik van AI. Verschillende rapporten suggereren dat de VS Maven gebruiken om relevante inzichten te verschaffen aan het Oekraïense leger, zoals de locatie van Oekraïense troepen, de bereidheid van burgers om zich tegen de Russische bezetting te verzetten, de bewegingen van Russische eenheden, de positie van hun materieel, en de meest geschikte wapens om tegen Russische stellingen in te zetten. De Oekraïense strijdkrachten ontwikkelden ondertussen hun eigen AI-platform, genaamd DELTA, dat op een zelfde manier verkenningsdata, satellietbeelden, drone-informatie en andere databronnen samenvoegt. Software van Palantir aggregeert deze databronnen en stelt gebruikers in staat om specifieke verzoeken in te voeren, zoals het opvragen van beelden van een bepaalde locatie op een specifiek tijdstip. Sommige schattingen suggereren dat DELTA op een willekeurige dag tot 1.500 bevestigde Russische doelen in het hele land identificeerde. "Voor ons is het een kwestie van overleven," stelde een hoge Oekraïense officier in Kiev, die vóór de oorlog software ontwierp voor een retailbedrijf.
Om de vele door DELTA gegenereerde doelen te kunnen aanvallen, maakt Oekraïne gebruik van nieuwe aanvalsdrones met uiteenlopende AI-capaciteiten. Eén type in het bijzonder - de First Person View (FPV) drone - blijkt de frontlinie ingrijpend te veranderen. De meeste FPV-drones worden ingezet als kamikazewapens, met explosieven bevestigd aan hun frame. Soldaten besturen ze handmatig richting het doelwit. Zodra ze binnen een straal van twee kilometer komen, neemt de AI-gestuurde navigatie het over waarna de drone zich rechtstreeks op het doel stort.
Drones opereren vaak in zwermen, zweven boven huizen, dringen gebouwen binnen en achtervolgen mensen op straat.
Het gebruik van FPV-drones heeft het front drastisch veranderd. Hoewel Oekraïne deze drones introduceerde, ging Rusland al snel over op de massaproductie ervan. De constante aanvoer en aanwezigheid van FPV-drones is één van de redenen waarom de frontlinie vrijwel niet beweegt. Tegelijkertijd hebben de drones een grote impact op de beleving en het moraal van soldaten aan het front, omdat ze leiden tot een constante kwetsbaarheid, grote aantallen dodelijke slachtoffers verwondingen onder soldaten, en een constante angst om opgejaagd en uitgeschakeld te worden. Oekraïense burgers leven op hun beurt in voortdurende angst voor aanvallen door Russische AI-gestuurde drones. Deze drones opereren vaak in zwermen, zweven boven huizen, dringen gebouwen binnen en achtervolgen mensen op straat - of ze nu in een auto zitten, fietsen of te voet zijn. Burgers melden dat "regen, wind en wolken de drones op afstand houden, maar zodra het stormachtige weer opklaart, vullen de luchten zich opnieuw met drones." Eén van hen vertelde aan de Financial Times: "Ze jagen op ons. Stel je voor wat dat met een mens doet, de psychologische impact."
De snelle en voortdurende innovatie in de oorlog in Oekraïne leidt tot een moreel dilemma: hoe verenig je noodzakelijke innovatie om Russische aanvallen te kunnen afslaan met de ethische kwesties die spelen bij ongebreidelde AI investeringen? Feit is dat de oorlog in Oekraïne leidt tot een verdere normalisering van AI in oorlogsvoering en bij het gebruik van kritische militaire beslissingen, zoals het selecteren en aanvallen van doelwitten. Waar westerse landen zich lang uitspraken tegen dergelijke toepassingen, wordt die weerstand steeds minder luid. Zo sprak minister van Defensie, Theo Francken (N-VA), tijdens een recent bezoek aan het hoofdkantoor van Palantir vol lof over het bedrijf dat met AI "superieure doelidentificatie" mogelijk maakt.
GAZA
In de oorlog in Gaza zien we echter voor het eerst ook duidelijk waar deze AI-oorlogen toe leiden: de mogelijkheid om in een korter tijdsbestek veel meer aanvallen te kunnen uitvoeren. In 2021 voerde Israël tijdens de toenmalige militaire operaties tegenover Hamas, volgens eigen zeggen, een eerste 'AI-oorlog'. Na de terroristische aanvallen van Hamas op 7 oktober 2023 werd het gebruik van AI verder geïntensiveerd. Volgens onthullingen door een groep Palestijns-Israëlische journalisten in +972 Magazine en Local Call maakt het Israëlische leger op grote schaal gebruik AI om potentiële doelwitten te identificeren. De journalisten beschrijven op basis van interviews met betrokkenen binnen het Israëlische Defensieleger drie van zulke AI-systemen, genaamd 'Lavender', 'Evangelie' en 'Where's Daddy?'. Op basis van grote hoeveelheden data voorspelt Lavender welke personen er bij de militaire tak van Hamas horen, identificeert Evangelie de gebouwen waar deze mensen wonen en werken, en berekent Where's Daddy? vervolgens wanneer deze persoon thuis komt, zodat die daar kan worden aangevallen.
Deze AI-gestuurde systemen werken op basis van waarschijnlijkheid en correlatie. In Gaza zijn deze systemen getraind om kenmerken te herkennen waarvan wordt aangenomen dat ze representatief zijn voor mensen die banden hebben met de militaire tak van Hamas. Het gaat dan bijvoorbeeld om lidmaatschap van dezelfde WhatsApp-groep als een bekende Hamas militant, of het regelmatig veranderen van mobiele telefoon of adres. Op basis van de vooraf bepaalde kenmerken voorspellen ze de waarschijnlijkheid dat een persoon lid is van Hamas (Lavender), waar die woont of werkt (Evangelie), en of die aanwezig is op dat adres (Where's Daddy?).
Het AI-systeem hielp Israëlische officieren om van "vijftig doelwitten per jaar" naar "honderd doelwitten per dag" te gaan in Gaza.
Hoewel in dit geval de keuze om een doelwit aan te vallen nog steeds bij een menselijke gebruiker ligt, is de beslissingsruimte zeer beperkt. De inlichtingenofficieren die Evangelie gebruiken verklaarden bijvoorbeeld hoe het AI-systeem hen hielp om van "vijftig doelwitten per jaar" naar "honderd doelwitten per dag" te gaan - en dat Lavender in totaal meer dan "37.000 mensen als mogelijk doelwit identificeerde." Ze reflecteerden ook op hoe het gebruik van AI hun eigen aandeel in de besluitvorming sterk reduceerde: "in dit stadium investeerde ik in elk doelwit twintig seconden. […] Ik had als mens geen enkele toegevoegde waarde […]. Het bespaarde veel tijd."
Met de uitrol van AI in conflictsituaties worden bekende patronen van burgerleed op verschillende manieren versterkt. De Israëlische overheid vergaart al jaren op grote schaal data over de inwoners van Gaza om verdachten te identificeren op basis van gedragspatronen. De integratie van AI moet dit proces optimaliseren, maar de realiteit laat zien hoe onbetrouwbaar het gebruik van gedragspatroonherkenning is en wat de gevolgen daarvan zijn in een complexe operationele context zoals Gaza. Zo zijn de patronen waar het IDF hun systemen in de data naar laat speuren zeer ruim gedefinieerd. In het geval van Lavender lijkt één van de centrale regels zelfs 'man staat gelijk aan militant' te zijn. Het oprekken van wie of wat als legitiem doelwit wordt gezien, in combinatie met de hoge snelheid waarmee de systemen opereren, dragen bij aan de enorme schaal van verwoesting en de aantallen burgerdoden in Gaza. Daarnaast passen mensen in oorlogstijd hun gedrag aan. Zo geven burgers na bombardementen hun telefoon door aan familieleden, en veranderen vluchtelingen regelmatig van adres. Dit zijn echter precies de gedragspatronen die in de AI-systemen Lavender en Evangelie als 'verdacht' worden geprogrammeerd. Als burgers niet al onterecht door deze systemen worden geselecteerd, vergroot hun vluchtgedrag als reactie op het geweld de kans dat dit alsnog gebeurt.
NET MEER BURGERLEED
Veelvuldig wetenschappelijk onderzoek toont aan dat de integratie van AI technologie in het veiligheidsdomein verre van feilloos is. Nu AI op grote schaal in oorlog wordt ingezet, zien we hoe de problemen waar de technologie mee kampt, waaronder bias en onnauwkeurigheid, direct van invloed zijn op de levens van burgers en hun lichamelijke integriteit. AI-gedreven oorlogsvoering vergroot niet alleen de schaal van burgerleed, maar leidt er bovendien toe dat burgers dag en nacht in een zeker 'psychisch gevangenschap' verkeren, waarbij ze weten dat er op grote schaal data over hen wordt verzameld, maar niet weten welk gedrag of fysiek kenmerk hen tot doelwit kan maken.
De internationale gemeenschap debatteert al enkele jaren over de inzet van AI voor kritische militaire beslissingen, zoals het selecteren en aanvallen van doelwitten. Tot op heden bestaat er geen internationale consensus over hoe we militaire AI precies moeten reguleren, maar leek men het lange tijd wel eens over een belangrijke morele voorwaarde voor het gebruik van AI in aanvalsfuncties, namelijk dat er altijd een vorm van 'betekenisvolle' menselijk controle aanwezig moet zijn. Binnen de internationale gemeenschap gold die voorwaarde lange tijd als breed gedragen morele norm, maar die vervaagt langzaam onder invloed van de oorlog in Oekraïne, de wereldwijde technologierace en de huidige geopolitieke context van voortdurende rivaliteit en wantrouwen tussen grootmachten.
Het gebruik van AI zorgt er juist voor dat er op veel grotere schaal kan worden aangevallen.
De realiteit in Gaza en Oekraïne weerlegt het veelgehoorde argument van defensiespecialisten dat AI een rol kan spelen in het beperken van burgerslachtoffers. De werkelijkheid is een andere: het gebruik van AI leidt niet tot 'schone' en 'precieze' oorlogen met een beperkt aantal burgerslachtoffers, maar zorgt er juist voor dat er op veel grotere schaal kan worden aangevallen omdat de technologie veel meer en veel sneller doelwitten genereert dan menselijk mogelijk. Met veel meer _target-_profielen en onder grote politieke en militaire druk om snel te reageren, hebben de betrokken militairen weinig tot geen zicht op - en controle over - de antwoorden en suggesties die AI genereert. Dit leidt tot meer, maar ook nieuwe vormen van geweld en burgerleed, waarbij mensen tot 'datapunten' worden gereduceerd en op basis van probabilistische modellen kunnen worden gedood.
Tegelijkertijd hebben mensen de onbewuste neiging om door een computer gegenereerde antwoorden en aanbevelingen als objectief en correct te beschouwen. Op die manier wordt de verantwoordelijkheid voor burgerleed van de mens naar de technologie gedelegeerd. In een context waarin militairen toch al steeds afhankelijker worden van de data, algoritmen en platformen van technologiebedrijven, leidt dit tot een verdere afzwakking van verantwoordelijkheid en aansprakelijkheid in militaire operaties.