Page d'accueil
du Magazin

 

Programmés pour
la guerre

 

Les techniques modernes — avec entre autres l’apparition d’armes automatiques et robotisées — transforment la manière de guerroyer. Comment l’aide humanitaire et les règles de la guerre doivent-elles s’adapter ?

En mai 2013, un engin volant sans pilote, aux ailes de chauve-souris, de la taille d’un chasseur traditionnel, décollait pour la première fois du porte-avion de la marine américaine George H.W. Bush, au large de Washington D.C.

De par sa taille, ce drone, le X-47B, a un rayon d’action bien plus étendu que les «Predator» utilisés actuellement. Comme il peut décoller d’un navire, il est utilisable presque partout dans le monde.

Pourtant, si ce vol inaugural était si particulier — voire historique —, c’est pour une autre raison. Selon la marine des États-Unis, le X-47B est conçu de telle manière qu’il «peut être programmé pour effectuer des missions sans intervention humaine». Contrairement aux drones utilisés aujourd’hui, cette arme peut être automatisée. En un mot, c’est un robot doté d’ailes, de canons et de bombes.

«C’est l’avenir», a déclaré le contre-amiral Mat Winter, de la marine des États-Unis, à l’agence Associated Press.

Qui plus est, le X-47B n’est pas un cas isolé. Nombreux sont les pays, dotés d’une armée plus ou moins importante, qui élaborent des systèmes d’armement volants du même type, pouvant être téléguidés (à l’instar des drones actuels), mais aussi capables de fonctionner de manière autonome.

Conflits à grande vitesse

Du point de vue militaire, les avantages sont nombreux. Des drones de combat pourraient pénétrer dans des espaces aériens défendus sans faire courir de risque à des pilotes; ils pourraient aussi manœuvrer plus rapidement en faisant des virages brusques qu’un être humain ne supporterait pas. Ils peuvent voler plus vite, plus longtemps et plus haut que des chasseurs traditionnels et ceux qui seraient préprogrammés ou automatisés pourraient poursuivre une mission même en cas d’interruption des communications avec le centre de commandement.

Une révolution similaire est en marche au sol. Au cours des 15 dernières années, des milliers de robots ont été déployés dans des conflits, en Irak et en Afghanistan par exemple. La plupart ont servi à déclencher des engins explosifs improvisés, mais en 2007, un robot modifié pour porter des armes a été mis à l’essai en Irak.

Depuis lors, la Chine, Israël et la Russie ont aussi mis au point des systèmes de robots terrestres armés et d’autres pays leur emboîtent le pas. Ils sont de formes et de dimensions très variées : certains sont à peine plus grands qu’un jouet télécommandé, d’autres sont de la taille d’un gros camion. Ils sont généralement équipés de chenilles de char ou de roues de grandes dimensions et souvent dotés de bras qui peuvent effectuer des tâches simples, de caméras vidéo orientables, de dispositifs de détection infrarouge ou de vision nocturne et d’armements.

Leurs missions sont multiples : ils peuvent pénétrer dans des bâtiments ou des territoires occupés par des combattants ennemis, à des fins de reconnaissance ou d’attaque, et la plupart de ces systèmes fonctionnent par télécommande. Les experts estiment qu’à terme, les robots terrestres pourraient aussi être programmés pour des missions autonomes.

Selon de nombreux spécialistes, les progrès réalisés actuellement en matière d’intelligence artificielle représentent un bond technologique comparable à l’avènement de l’aviation dans la première moitié du XXe siècle. Cette fois, cependant, ce ne sont pas seulement les grandes puissances militaires qui sont concernées.

«Nous voyons aujourd’hui un large éventail d’acteurs accéder à des techniques de pointe nouvelles, à la faveur notamment de coûts en baisse et d’une plus grande simplicité d’emploi», écrit Peter W. Singer, le directeur du Center for 21st Century Security and Intelligence au sein de la Brookings Institution à Washington, D.C., dans un numéro récent de la Revue internationale de la Croix-Rouge.

«Lorsqu’on parvient au stade où on peut faire voler un microdrone à l’aide d’une application pour iPhone — ce qui est d’ores et déjà possible —, un très grand nombre de personnes y ont soudain accès», explique Peter Singer, qui est aussi l’auteur de Wired for War: The Robotics Revolution and Conflict in the 21st Century.

Automatiser la décision ?

Tout ceci entraîne des conséquences importantes pour la manière dont pourraient évoluer les conflits et l’équilibre international des pouvoirs. D’aucuns, comme Noel Sharkey, informaticien et expert en robotique basé au Royaume-Uni, craignent que nous ne soyons au seuil d’une course aux armements de type nouveau, avec des armes relativement petites, peu onéreuses, faciles à produire mais fort difficiles à réglementer. «Tout le monde pourra utiliser ces outils», souligne-t-il, en relevant que les progrès de la robotique sont dus autant aux marchés de la consommation et de l’industrie qu’aux budgets militaires.

C’est pourquoi Noel Sharkey est opposé à tout système d’armement qui ne serait pas en permanence sous le contrôle d’opérateurs humains, et considère que la meilleure manière de le garantir passe par l’adoption de nouveaux traités. Plusieurs États ont fait des déclarations de principe affirmant que s’ils déployaient des armes capables d’agir de manière autonome, des êtres humains seraient toujours aux commandes. Noel Sharkey est sceptique. «Qu’est-ce que cela signifie ? Qu’une personne presse un bouton, et qu’ensuite la machine prend le relais ?»

Pour lui, l’enjeu fondamental est une question non pas de droit, mais d’humanité. «On ne peut pas déléguer à une machine la décision de tuer. Quoi de plus contraire à toute notion de dignité que de voir une machine décider de vous ôter la vie ?»

Pour les agents humanitaires, les systèmes d’armement robotiques, automatisés ou totalement autonomes soulèvent aussi de graves interrogations : avec l’automatisation d’un nombre croissant de fonctions comme le choix de la cible et le tir, ces machines tueuses à l’efficacité redoutable pourront-elles faire la distinction indispensable entre combattants et objectifs militaires, d’une part, et les civils d’autre part ?

Si, comme d’aucuns le prédisent, des avions de guerre automatisés supersoniques accélèrent de manière spectaculaire le rythme des conflits, les hommes pourront-ils encore prendre des décisions réfléchies sur le choix des cibles et la protection des civils dans des combats fulgurants ? Ou ces décisions seront-elles automatisées elles aussi ?

D’autre part, si une arme autonome ou automatisée enfreint les règles de la guerre, qui en sera tenu responsable ? Le commandant qui a lancé le drone ou le robot dans la bataille, ou le concepteur du logiciel qui anime le robot ?

Ces questions font l’objet de vifs débats dans les cercles académiques, militaires et pacifistes. Alors que d’aucuns exigent une réglementation, de nouveaux traités, voire des moratoires et des interdictions de ces armes, le CICR appelle les États à respecter leurs obligations au regard des Conventions de Genève et de leurs Protocoles additionnels, afin de garantir que tous les nouveaux systèmes d’armements soient conformes au droit international humanitaire (DIH) avant qu’ils ne soient conçus et déployés.

Un grand nombre de questions d’ordre juridique, moral et politique se posent déjà concernant le recours aux drones tels qu’il est pratiqué aujourd’hui, notamment par les États-Unis pour effectuer des frappes en Afghanistan, au Pakistan et au Yémen. Cependant, la plupart des questions touchant le DIH et les missions recourant déjà à des drones sont liées à la manière dont ces armes sont utilisées et non à la technique en elle-même. L’élément essentiel est qu’aujourd’hui, les drones sont toujours pilotés par des hommes pendant leurs missions, même s’ils se trouvent loin du champ de bataille.

L’apparition d’armes autonomes bouleverse l’équation juridique; le débat se concentre davantage sur la technique et ses capacités. Pour le CICR, ce type d’arme devrait être capable de distinguer non seulement entre combattants et civils, mais aussi, par exemple, entre combattants actifs et hors de combat, ainsi qu’entre civils participant directement aux hostilités et civils armés.

Une arme autonome devrait aussi respecter la règle de la proportionnalité, qui exige qu’une attaque contre un objectif militaire ne provoque pas de dommages incidents excessifs parmi la population civile par rapport à l’avantage militaire concret et direct escompté. Au moment de l’attaque, elle devrait être en mesure de prendre des précautions pour réduire au minimum ces dommages à la population civile.

Selon Noel Sharkey, nous sommes encore loin de disposer des moyens techniques qui permettraient aux ordinateurs d’opérer de telles distinctions et de prendre pareilles précautions. «Dans un environnement d’une parfaite lisibilité — un char isolé en plein désert, par exemple —, on pourrait peut-être faire reconnaître à l’ordinateur la forme du char pour l’attaquer.»

En revanche, poursuit-il, même dans un cadre d’une complexité modérée, comme le centre d’un village ou une rue résidentielle, les ordinateurs ne sont tout simplement pas en mesure de faire la distinction entre des formes multiples et changeantes dans un environnement encombré de bâtiments, de véhicules, d’arbres et de personnes.

Avec des systèmes d’armements automatisés ou semi-autonomes (c’est-à-dire programmés pour réaliser une série d’attaques spécifiques et préprogrammées), les questions sont différentes, car dans ce cas c’est un être humain qui a choisi les cibles. Que se passe-t-il, cependant, si la situation change : si, par exemple, un autobus scolaire surgit devant la cible une fois la mission lancée ? Ces systèmes pourraient permettre à un opérateur humain de reprendre la main, mais si la communication avec l’arme est brouillée par les forces ennemies (cas fréquent en temps de guerre), il serait impossible d’annuler la frappe.

À cela, certains experts de DIH rétorquent que ce type de situation peut déjà se produire avec certaines armes non autonomes. Ainsi, lorsqu’un missile de croisière à longue portée est lancé, la situation sur le terrain peut changer de manière radicale entre le moment où le missile décolle et celui où il atteint sa cible.

Une perte d’humanité ?

Tous les experts en robotique et DIH ne sont pas persuadés que l’automatisation ou l’autonomie des systèmes d’armement contredit nécessairement les valeurs humanitaires. D’aucuns vont jusqu’à affirmer qu’avec les progrès de l’intelligence artificielle, un robot pourrait en théorie être programmé pour se comporter, d’une certaine manière, plus humainement qu’un humain, en particulier dans des circonstances de combat très stressantes et éprouvantes émotionnellement.

Ce degré d’automatisation relève encore de la science-fiction, mais on peut citer un exemple plus concret et plus immédiat : les systèmes de missiles défensifs qui sont déjà utilisés pour identifier, viser et détruire les missiles offensifs, à des vitesses supérieures aux capacités des opérateurs humains. Certains experts posent la question : serait-il juste d’empêcher un État de recourir à l’automatisation pour défendre sa population contre une pluie de missiles ?

La poule et l’œuf

Concrètement, toutefois, il est peu probable que les États acceptent dans un avenir proche d’adopter des traités régissant ces nouveaux moyens techniques. Tel est l’avis de William Boothby, expert des questions juridiques relatives au choix des cibles et du processus d’examen par les États des armes nouvelles sous l’angle du droit international humanitaire.

L’une des raisons en est que les militaires sont généralement peu enclins à décrire leurs véritables capacités techniques, afin de préserver leur supériorité dans de futurs conflits. «Ils risquent, si d’autres pays ont connaissance de l’arme et de son fonctionnement, de perdre une partie de ce qui est considéré comme un avantage», relève William Boothby, qui a publié récemment un livre intitulé Conflict Law, the influence of new weapons technology, human rights and emerging actors.

«C’est le problème de l’œuf et de la poule, ajoute-t-il. Quels États iraient légiférer sur une réalité dont nous ne connaissons pas encore les caractéristiques ? Il est difficile d’évaluer les risques et les potentialités associés à une chose qui n’a pas encore atteint un certain degré de maturité.»

Pour William Boothby, c’est la raison pour laquelle il est essentiel que les États améliorent leur capacité d’évaluer en termes juridiques tout nouveau système d’armement, comme l’exige déjà le droit international. «Sur les quelque 170 États qui sont juridiquement tenus d’effectuer des examens des nouvelles armes, seuls une douzaine sont dotés d’une procédure régulière pour le faire de manière systématique», assure-t-il. Il reconnaît que même lorsque ces examens sont réalisés, le système n’est pas parfait, notamment parce que ce sont les États eux-mêmes qui évaluent leurs propres systèmes d’armement. C’est cependant, affirme-t-il, une mesure importante et nécessaire.

Quelle que soit la position que l’on adopte sur les armes robotiques, il est évident pour l’expert en armes Peter Singer qu’il est grand temps pour les humanitaires d’accorder davantage d’attention au problème. Lorsqu’il a abordé la question avec les organisations humanitaires, «aucune d’entre elles n’était prête ou disposée à discuter d’appareils tels que le drone Predator».

Il poursuit, dans son article pour la Revue : «On retrouve le même phénomène avec les avancées actuelles : la communauté humanitaire réagit après coup à des choses qui existent déjà et qui sont déjà utilisées. Elle aura donc moins de poids, parce qu’elle n’a pas exercé son influence en temps utile.»

L’une des raisons en est peut-être que les organisations humanitaires sont toujours très occupées par les atrocités et les violations d’aujourd’hui, dont bon nombre sont commises au moyen d’armes classiques et de faible technicité, de la machette au fusil automatique.

Plus profondément, comme le relève Peter Singer, tout ce débat soulève des questions qui sortent du cadre du droit international humanitaire : «La question de fond est de savoir si ce sont nos machines qui sont programmées pour la guerre ou si ce n’est pas plutôt l’être humain.»

Malcolm Lucard
Rédacteur en chef de Croix-Rouge, Croissant-Rouge


Le Taranis, drone de guerre expérimental de conception britannique, en phase d’essai en 2013. Le Taranis sera programmé pour esquiver les attaques et pour choisir des cibles, mais le fabricant, ainsi que le gouvernement britannique, insistent sur le fait qu’il est conçu pour être piloté par des opérateurs humains et que les cibles seront toujours vérifiées par l’opérateur préalablement à toute attaque.
Photo : ©Ray Troll/BAE Systems

 

 

 

 

 


La notion d’arme à fonctionnement autonome n’est pas nouvelle. Les mines terrestres se déclenchent sans intervention humaine.
Photo : ©REUTERS/Nita Bhallia

 


 

 


Les systèmes de mitrailleuses les plus perfectionnés  utilisés pour défendre les frontières
ou des installations sensibles, peuvent identifier des cibles et tirer sans intervention humaine directe.
Photo : ©REUTERS/Pichi Chuang

 

 

 

 

 

 

Ces machines
tueuses à l’efficacité
redoutable pourront-
elles faire la distinction
indispensable entre
les combattants
et les objectifs
militaires, d’une
part, et les civils
d’autre part ?

 

 

 

 


Les systèmes de missiles défensifs sont automatisés pour identifier des cibles à très grande vitesse.
Photo : ©REUTERS/Darren Whiteside


 

 

 

 


Les armes en cours d’élaboration sont très diverses. Le drone de combat furtif X-47B de la marine des États-Unis peut mener à bien des missions préprogrammées.
Photo : ©REUTERS/Rich-Joseph Facun

 

 

 

 

 


Experts affirment que des «nano-drones» de la taille d’un insecte pourraient être programmés pour réaliser des missions et réagir à l’évolution de la situation sur le terrain.
Photo : ©REUTERS/Skip Peterson

 

 

 

 

 

 


Un soldat de l’armée des États-Unis examine un véhicule armé robotisé, le MAARS (Modular Advanced Armed Robotic System), dans une exposition militaire sur une base de Marines de l’armée américaine en Californie, en 2012.
Photo : ©REUTERS/Mike Blake

 

 

 

 

 


De nombreux pays s’efforcent depuis des années de mettre au point des drones de combat furtifs. Ce caméraman filme un prototype d’avion de combat chinois sans pilote, surnommé «Anjian», ou «sabre sombre».
Photo : ©REUTERS/Bobby Yip

 

 

 

 

 

 

 

 

 

 

 

 

150 ans d’action humanitaire

À l’occasion de la commémoration du 150e anniversaire de la première Convention de Genève, Croix-Rouge, Croissant-Rouge s’interroge sur l’avenir du droit international humanitaire et sur les effets que les armes modernes et les technologies de l’assistance exerceront sur l’action humanitaire et sur les règles de la guerre.

 

 

Haut de page

Nous contacter

Crédits

Webmaster

©2014

Copyright