• Elise van Lonkhuijzen

Killer robots

Op 8 september 2020 plaatste The Guardian een artikel dat volledig door een robot was geschreven.[1] In het stuk probeerde de robot de mensheid ervan te verzekeren dat robots geen enkele intentie hebben om de wereld over te nemen en de mensheid te onderwerpen aan hun macht. Komen we daar even goed mee weg! Dat robots ons niet aan hun wil willen onderwerpen, betekent niet dat ze niet ingezet kunnen worden ingezet door landen die met elkaar strijden om de macht. Dat is dan ook iets dat steeds vaker gebeurt. Waar vroeger de beste (kern)wapens landen tot wereldmacht maakten, lijkt het speelveld nu te zijn verschoven naar killer robots.


Het gebruik van robots in oorlogvoering is niets nieuws. In 1968 voerde het Amerikaanse leger Operation Igloo White uit. Hierbij werden microfoons en sensoren met vliegtuigjes in de Vietnamese jungle gedropt. Het doel van de microfoons en de sensoren was om signalen op te pikken met informatie over waar de vijand zich bevond en welke routes werden gevolgd door goederen trucks.[2] Het is een simpel voorbeeld dat goed laat zien hoe ver de technologie al gekomen is. Vandaag de dag beschikken de meeste landen over een vorm van killer robots. Anders dan dat de naam doet vermoeden, worden de robots niet alleen offensief ingezet. Een van de meest voorkomende vormen van een killer robot is namelijk een defensief systeem dat aanvallen van een tegenstander kan blokkeren. Ook de Nederlandse defensie beschikt over een dergelijke robot. Wat deze systemen bijzonder maakt, is dat ze (grotendeels) autonoom kunnen opereren zonder enige vorm van betekenisvolle menselijke tussenkomst.


Het leek er lange tijd op dat volledig autonome killer robots alleen nog een toekomstbeeld vormden, maar dat is niet meer zo. Op het strijdtoneel van Nagorno Karabach is er voor het eerst een killer robot gebruikt die volledig autonoom kan werken. De Harop is een drone die zelfstandig een doelwit kan selecteren en ook kan uitschakelen. Hoewel de drone volledig autonoom kan werken, zou een menselijke operator de beslissingen die door de drone zijn gemaakt, altijd kunnen opheffen. Het Azerbeidzjaanse leger gaf hier ook aan dat dit was gebeurt tijdens hun aanval, dit valt echter niet te controleren.[3]


De killer robots kunnen zoals vermeld zonder betekenisvolle menselijke tussenkomst opereren. Dat houdt in dat ze na het krijgen van een commando, zoals “schakel de vijand uit”, zelfstandig de opdracht uit kunnen voeren. Zo kunnen ze het doelwit selecteren, de windrichting bepalen, de omgeving scannen etcetera. Oftewel, alle deelelementen zelf uitvoeren zonder controle van een mens. Hier hangen bepaalde voordelen, maar zeker ook nadelen, aan vast. Voordelen zijn onder andere dat een robot veel sneller en preciezer kan werken dan de meest getrainde persoon. In situaties waarin tijd een belangrijke rol speelt zou dat levens kunnen redden bijvoorbeeld. Daarnaast kunnen de robots hun taken ook met een veel grotere efficiëntie en precisie uitvoeren.


Toch kleven er ook nadelen aan. Een van die nadelen heeft betrekking op de situatie waarin deze wapens gebruikt kunnen worden, namelijk oorlog. Ten tijde van oorlog geldt het humanitaire oorlogsrecht, hierin zijn verschillende voorwaarden opgenomen voor het gebruik van wapens. Een van de belangrijkste voorwaarden is het proportionaliteitsbeginsel.[4] Dat houdt in dat het gebruik van de killer robots niet verder mag gaan dan strikt noodzakelijk. Ook betekent dit dat er geen onnodige slachtoffers mogen vallen. In de literatuur worden bij de proportionaliteitseis de grootste problemen voorzien.[5] Een killer robot kan immers prima doelwitten selecteren en aanvallen, maar efficiëntie en proportionaliteit liggen niet altijd op een lijn. Het kan goed zijn dat wanneer een killer robot de opdracht heeft gekregen om de vijand uit te schakelen, hij daarbij geen rekening houdt met eventuele burgerslachtoffers, of dat wel doet, maar geen rekening houdt met het aantal militaire slachtoffers. De grootste reden tot zorg hierbij is dat de killer robots een vorm zijn van zelflerende machines. Dat houdt in dat ze zichzelf steeds verder ontwikkelen met de kennis die ze vergaren. Dat houdt in dat de makers van de robots na verloop van tijd geen idee meer hebben hoe het “denkproces” van de robot eraan toe gaat. Een ethische vraag zoals de proportionaliteitseis, is bij dergelijke killer robots dan ook moeilijk te controleren.


Streven we naar een toekomst waarin het recht wordt aangepast aan de killer robots of worden de robots aangepast aan het recht? Het is een vraag die vanwege de ontwikkeling van de techniek steeds belangrijker zal worden en waaraan binnen een paar jaar wellicht nog een blog besteed kan worden. Maar tot die tijd hebben we nog altijd de geruststelling dat wij mensen de controle over de wapens zullen behouden, omdat de killer robots zelf daar schijnbaar geen behoefte aan hebben.


[1] “A robot wrote this entire article, are you scared yet, human?” The Guardian, 8 september 2020.

[2] L. Hofman, “de nieuwste wapenwedloop gaat niet om bommen, maar om algoritmes (en hoe die te foppen), De Correspondent, 19 augustus 2020.

[3] T. Lambrechts, “Autonome wapensystemen, algoritmes van de dood”, Mondiaal Nieuws, 21 juli 2017.

[4] Adviesraad Internationale vraagstukken, “Advies inzake bewapende drones”, advies nr. 23, Den Haag, juli 2013.

[5] M. Ekelhof, “Autonome wapensystemen, wat we echt moeten weten over de toepassing van het humanitair oorlogsrecht en de menselijke rol in militaire besluitvorming”, Ars Aequi, maart 2018.