AI in het militaire domein AI (artificial intelligence – kunstmatige intelligentie) in het militaire domein verwijst naar het gebruik van geavanceerde technologieën en algoritmen om militaire operaties te verbeteren en te automatiseren. Het omvat het toepassen van AI-methoden en -systemen op verschillende aspecten van militaire activiteiten, zoals inlichtingenverzameling, commando en controle, gevechtsplanning, doelacquisitie, wapensystemen en logistiek. De volgende aspecten en risico’s spelen een rol bij AT in het militaire domein:
Autonome wapensystemen
Het gebruik van AI in autonome wapensystemen, ook wel “killer robots” genoemd, baart veel zorgen. Dit zijn wapensystemen die in staat zijn om doelen te identificeren en aan te vallen zonder directe menselijke tussenkomst. Dit omvat bijvoorbeeld onbemande voertuigen, drones en robots voor taken zoals verkenningsmissies, logistiek transport en het onschadelijk maken van explosieven. AI stelt deze systemen in staat om zelfstandig te opereren en beslissingen te nemen op basis van gegevens en algoritmen. Het gebrek aan menselijke controle verhoogt het risico op onbedoelde escalatie, misbruik en onnauwkeurige besluitvorming. Er bestaat bezorgdheid dat autonome wapensystemen de drempel voor oorlogsvoering kunnen verlagen en tot ongewenste gevolgen kunnen leiden.
Fouten en onnauwkeurigheden
AI-systemen zijn afhankelijk van gegevens en algoritmen om beslissingen te nemen. Als deze gegevens biased, onvolledig of onnauwkeurig zijn, kunnen AI-systemen foutieve beslissingen nemen met potentieel ernstige gevolgen. Bijvoorbeeld, als een AI-systeem doelen verkeerd identificeert of onschuldige burgers als vijanden markeert, kan dit leiden tot onnodig geweld en verlies van mensenlevens.
Situational Awareness
AI kan helpen bij het vergroten van de ‘situational awareness’ (situatiebewustzijn) van militairen door middel van geavanceerde sensoren, dataverwerking en beeldherkenningstechnieken. Hierdoor kunnen bedreigingen, doelen en kritieke informatie in real-time worden gedetecteerd en geanalyseerd. Het kan helpen bij het analyseren van grote hoeveelheden gegevens, zoals satellietbeelden, radarinformatie en communicatie-intercepties, om bruikbare inlichtingen te verkrijgen. Dit stelt militaire commandanten in staat om beter geïnformeerde beslissingen te nemen.
Predictieve analyses
AI-algoritmen kunnen grote hoeveelheden gegevens analyseren om patronen en trends te identificeren die kunnen helpen bij het voorspellen van toekomstige gebeurtenissen, zoals vijandelijke activiteiten of logistieke behoeften.
Cyberaanvallen en cyberbeveiliging
AI-systemen in het militaire domein zijn kwetsbaar voor cyberaanvallen. Als kwaadwillende actoren erin slagen om AI-systemen te infiltreren of te manipuleren, kunnen ze potentieel controle krijgen over kritieke militaire systemen. Dit kan leiden tot sabotage van operaties, het uitschakelen van defensiesystemen of het manipuleren van gegevens om valse informatie te verspreiden. AI kan worden toegepast op het gebied van cyberbeveiliging om bedreigingen en aanvallen te detecteren, te analyseren en te verdedigen. Door het gebruik van AI kunnen grote hoeveelheden gegevens worden gemonitord en geanalyseerd om verdachte activiteiten te identificeren en sneller te reageren op cyberaanvallen.
Proliferatie
Als AI in het militaire domein een concurrentievoordeel biedt, kan dit leiden tot een wapenwedloop waarbij landen en actoren proberen AI-capaciteiten te ontwikkelen en implementeren. Dit kan de spanningen verhogen en de kans op onbedoelde conflicten vergroten.
Ethiek en verantwoordelijkheid
Het gebruik van AI in het militaire domein roept belangrijke ethische vragen op. Er zijn zorgen over de mogelijke implicaties van het gebruik van autonome wapens en de vermindering van menselijke betrokkenheid bij militaire beslissingen. Wie draagt de verantwoordelijkheid als een AI-systeem schade veroorzaakt of een foute beslissing neemt? Hoe kunnen we ervoor zorgen dat AI-systemen zich houden aan het internationaal recht en ethische normen? Het ontbreken van duidelijke richtlijnen en regelgeving kan leiden tot ongewenste situaties en onverantwoordelijk gedrag.
Internationale normen en regelgeving
Om de gevaren van AI te beperken, is het van cruciaal belang dat er internationale normen en regelgeving worden ontwikkeld om het gebruik van AI in het militaire domein te beheersen. Het is ook belangrijk dat er verantwoordelijkheid en transparantie is bij het ontwikkelen en implementeren van AI-systemen, en dat ethische overwegingen en menselijke controle worden gewaarborgd.
Deze tekst is geschreven met behulp van ChatGPT. We hebben drie keer een ‘prompt’ geformuleerd en drie keer een resultaat gekregen. We hebben die drie antwoorden samengevoegd en wat geredigeerd.
Links
Dit lijstje met links hebben we zelf samengesteld, als beginpunt voor vervolgartikelen over AI.
Artificial Intelligence in het militaire domein | 02 | Defensiekrant
Opinie | Ook bij kernwapens zal AI gebruikt worden – NRC
Opgave AI. De nieuwe systeemtechnologie | Rapport | WRR (2021)
Eerste overzicht van technieken cyberaanvallen van AI door AI (tno.nl)
Eerste wereldwijde conferentie over AI in militaire domein in Den Haag (tno.nl)
‘Call to action’ verantwoord gebruik AI in het militaire domein | Nieuwsbericht | Defensie.nl
Ai is bij Defensie een nieuwe werkelijkheid | Computable.nl
Defensie – Nederlandse AI Coalitie (nlaic.com)
Killer Robots – Vredesorganisatie PAX (paxvoorvrede.nl)
Nieuwe ‘robot’ op proef | 03 | Defensiekrant
Defensie Strategie Data Science en AI 2023-2027 | Rapport | Rijksoverheid.nl