Ze noemt het ‘mindblowing’ hoe snel het de laatste jaren is gegaan met de militaire toepassingen van artificial intelligence. Toen Guangyu Qiao-Franco zich in 2019 begon te verdiepen in de internationale pogingen om autonome wapens te reguleren, was dit soort oorlogsvoering vooral iets voor de toekomst. ‘Nu wordt het ingezet op de slagvelden in Oekraïne en Gaza. Het gebruik ervan is al min of meer normaal geworden.’
Een zwerm van drones
Wat is de stand van zaken op dit moment? Een robot die zelf beslist over leven of dood, zoals in de Terminator-films, bestaat nog niet. Wel zijn er wapensystemen die al heel veel zelf kunnen, legt de Chinese onderzoekster uit. ‘Er bestaat een munitiesysteem dat zelf een doelwit kan opsporen, eromheen kan cirkelen en kan beslissen wanneer het toeslaat. Ook is er een systeem dat razendsnel een doelwit kan selecteren op basis van veel verschillende informatiebronnen. Drones kunnen vervolgens in enkele seconden toeslaan. Verder zijn er al systemen ontwikkeld die gebruikmaken van zwermen van drones, waarbij één ‘moederdrone’ de rest bestuurt. Hier komt geen mens meer aan te pas.’
Uiteenlopende opvattingen
Binnen de Verenigde Naties wordt sinds 2016 gediscussieerd en onderhandeld over het reguleren van AI-gestuurde wapensystemen. Qiao-Franco volgt dit op de voet, evenals vergelijkbare bijeenkomsten buiten de VN, en ziet dat het erg moeilijk is om landen dichter bij elkaar te brengen. ‘Iedereen wil over alle wapens de menselijke controle behouden, maar wat houdt dat precies in? Voor landen als de Verenigde Staten, Japan, Verenigd Koninkrijk en Canada betekent dit dat AI wel zelf de knop in mag drukken om aan te vallen. Volgens hen kan de controle liggen in het wapenontwikkelings- en testproces. Voor andere landen betekent menselijke controle dat alleen bevelvoerders de knop mogen indrukken. Ze worden het niet eens over de definitie.’
Er bestaan veel tegengestelde benaderingen van autonome wapens, constateert Qiao-Franco. Zo zijn er landen en organisaties die het gebruik onethisch vinden. Machines zouden niet over mensenlevens moeten kunnen beslissen. Anderen vinden het juist ethischer dan menselijke oorlogsvoering, omdat de machines preciezer zijn. Ook over de vraag of met AI-wapens oorlogen voorkomen kunnen worden, lopen de opvattingen uiteen. ‘De een zegt dat AI conflicten kan voorkomen en er ook voor zorgt dat het aantal slachtoffers beperkt blijft. Anderen vrezen dat het roekeloosheid kan aanmoedigen en de drempel voor aanvallen verlaagt. Met AI staan operators psychologisch verder af van het doden, waardoor het verantwoordelijkheidsgevoel en de morele aarzeling bij de beslissing om geweld te gebruiken kan afnemen.’ Wat de effecten werkelijk zijn, is niet bekend. ‘We weten nog te weinig om daar iets over te kunnen zeggen.’
Voor de verschillende visies is grofweg een verdeling te maken tussen de Global North en de Global South, valt haar op. Landen in de Global North ondersteunen over het algemeen het verder ontwikkelen van AI-gestuurde wapensystemen. ‘Hun redenatie benadrukt kostenefficiëntie, het redden van mensenlevens, verbeterde besluitvormingsprocessen en het vermogen om operaties sneller uit te voeren.’ Landen in de Global South pleiten veelal voor een volledig verbod op het gebruik en ontwikkelen van autonome wapens. ‘Oorlogen komen daar vaker voor, waardoor ze potentiële proefterreinen zijn voor nieuwe technologieën. Deze landen zelf zijn nog niet zo ver in de ontwikkeling van deze wapens. Dat maakt hen zeer kwetsbaar voor de strategische voordelen die dergelijke systemen bieden.’
Voorzichtig positief
Haar eigen kijk op haar onderzoeksthema is door de tijd heen verschoven, met name door de expertdialogen die ze bijwoonde en analyseerde. ‘Ik ben voorzichtig positief geworden, omdat het heel duidelijk is: geen enkel land wil dat machines beslissingen op leven en dood gaan nemen. Ook hebben Biden en Xi vorig jaar besloten dat AI geen nucleaire wapens mag besturen. Alle landen werken samen aan wetgeving, al zullen in de ontstane akkoorden waarschijnlijk slechts minimale eisen worden vastgesteld.’
De competitieve dynamiek tussen staten beïnvloedt hun benadering van regelgeving, is Qiao-Franco ook gaan inzien. ‘Te strikte wetgeving kan contraproductief zijn, omdat het de verkenning van het potentieel van AI kan beperken.’ Uiteindelijk hangt effectieve regelgeving af van vertrouwen, stelt ze. ‘Als je grondbeginselen opstelt, weet je nooit zeker of andere landen je volgen. Je weet niet wat ze van hun militaire toepassingen geheimhouden en je weet ook niet hoe ze gaan handelen in conflictsituaties. Zonder wederzijds vertrouwen lopen wettelijke kaders het risico betekenisloos te zijn.’
Zorgen heeft ze vooral over de politieke spanningen tussen de Verenigde Staten en China. ‘We zien geen slowdown. De ontwikkelingen wijzen eerder op een wapenwedloop in geavanceerde militaire technologieën.’