De plus en plus, l’emploi des armements se décide et s’inscrit dans des situations où combats matériels et affrontements médiatiques sont étroitement liés. L’histoire nous livre de nombreux exemples d’armes intrinsèquement efficaces qui ont vu leur réalisation ou leur déploiement retardé, limité ou empêché pour des raisons d’origine philosophique ou médiatique. Par exemple, au Moyen Age l’arbalète a d’abord été rejetée comme un instrument diabolique.
De nos jours, l’interdiction partielle des armes à sous-munition par la convention d’Oslo conduit les armées françaises à abandonner différents matériels : obus à grenade Ogre, bombe aéroportée Belouga, lance-roquettes multiple … Le paradoxe est que de telles restrictions, qui dégradent incontestablement le rapport de la puissance au coût de nos forces, ne sont pas nécessairement les mesures les plus adaptées pour atteindre des objectifs humanitaires universellement partagés.
Or ce risque de dévoiement est particulièrement élevé à notre époque pour un pays comme la France et ce pour deux raisons bien précises. D’une part, ce sont les nations les plus démocratiques qui sont les plus vulnérables à un affaiblissement de leurs capacités militaires sous l’effet de mouvements d’opinion qui leur interdiraient l’utilisation de certaines armes alors même qu’elles ont la volonté de contribuer par ces capacités militaires au maintien de la paix et de la sécurité dans le monde. Il importe donc de concevoir des systèmes d’armes qui soient efficaces dans les combats matériels tout en offrant le moins de vulnérabilité possible sur le champ de bataille de l’opinion qui se développe dans le cyberespace.
Une première idée qui en est ressortie est que dans les années à venir plusieurs domaines de l’armement feront probablement, ou continueront de faire l’objet de polémiques susceptibles d’aboutir à des contraintes juridiques ou de fait. Une deuxième observation porte sur l’importance du facteur temps. D’une part, compte tenu de la durée de réalisation et de maintien en service des armements, c’est l’état des mentalités supposé plusieurs dizaines d’années à l’avance qui doit être considéré à l’étape de définition.
D’autre part, au stade de l’emploi, les fluctuations de l’opinion sont rapides, il importe d’être réactif et le moment de la communication doit être choisi avec soin. Enfin, il est banal de constater que la réaction, à un moment donné, d’une communauté particulière à l’emploi d’un type d’armement est la résultante de facteurs nombreux et complexes qui ne sont pas tous réductibles à la logique. Il y a des facteurs culturels plus ou moins profonds, tels que la distinction entre ruse et perfidie ou le degré d’acceptation d’une modification du corps humain.
Lire aussi: Fonctionnement des pistolets arbalètes à poulies
L’appréciation de la légitimité d’une opération militaire influe sur celle des armements employés et l’exigence éthique est certainement plus forte pour des populations qui ne se sentent pas directement menacées dans leur vie ou leur intégrité.
Peut-on, mais surtout, doit-on faire la guerre avec des robots ? C’est la question que pose le directeur du centre pour la sécurité et le renseignement au XXIe siècle de la Brookings Institution Peter W. Singer. Outre les intérêts militaires évidents à l’utilisation de ce type de robots, qui réduisent drastiquement le coût humain des opérations militaires, le débat sur l’autonomisation des robots se place sur deux champs.
Juridique d’abord : l’utilisation de robots létaux dits autonomes serait-elle compatible avec le droit en vigueur ? Dans ce contexte, la lecture de l’ouvrage de Peter Singer permet de jeter les bases d’une réflexion. L’auteur nous rappelle tout d’abord que les robots ont été utilisés très tôt dans la guerre. Les questions liées à un potentiel changement des normes éthiques régissant celles-ci remontent au conseil de Latran, où le Pape Innocent II s’était interrogé sur l’opportunité de l’utilisation de l’arbalète contre des chrétiens.
Elles se posent aujourd’hui avec une acuité renouvelée, dans le contexte de l’importance prise par le secteur technologique au sein de l’armée. Si les drones occupent aujourd’hui le devant de la scène, ils sont peut-être l’arbre qui cache la forêt : des unités de démineurs aux PackBot développés par la compagnie iRobot, l’utilisation des robots dans la guerre recouvre des emplois riches et variés. Le concept même de robot a des contours flous, et sa définition pose problème. Organisé en deux parties, la structure de l’ouvrage est résolument tournée vers un défi : penser la nouveauté.
La première partie, intitulée « Le changement que l’on crée », interroge la recherche mise en place par les hommes sur la robotique. La deuxième va déjà dans le sens d’un renversement de cette relation, et interroge les conséquences potentielles de cet inversement de la priorité. Dans la structure grammaticale même, « Quel changement est créé pour nous », l’homme est relégué d’un statut actif à passif, relégation dont il s’agit ici de prendre la mesure.
Lire aussi: Guide des arbalètes sous-marines pneumatiques
Mais la principale question posée par la réunion à Genève, et celle qui agite la communauté scientifique, est celle de l’autonomie possible des robots. L’autonomie des robots est analysée en fonction de trois catégories, human in the loop, on the loop, out the loop. Une arme appartenant à la première catégorie peut sélectionner des cibles, mais ne peut recourir à la force qu’après une autorisation. Une arme de type human on the loop peut sélectionner et tuer des cibles, mais reste sous la supervision d’un homme. Toutefois, la valeur normative de ce triptyque se trouve être questionnée par la pratique même.
Peter Singer relate ainsi une situation où un navire américain patrouillant dans le golfe, le USS Vincennes, détecte un avion sur son radar. Or, ce navire est précisément le premier à expérimenter un nouveau système de détection de radar intitulé Aegis, capable de détecter avec une plus grande précision des appareils ennemis. Le USS Vincennes bénéficie donc d’une procédure de décision plus restreinte concernant l’autorisation de l’emploi de la force. Le système détecte un avion, qui se trouve être un avion de ligne iranien, donc civil, mais le classe dans la catégorie « assumed enemy ».
L’équipage, et ce malgré les autres données indiquant le contraire, abandonne son autonomie morale au profit d’une foi en la rationalité supérieure de l’ordinateur : il est plus intelligent, il a donc raison. Ils tirent sur l’avion de ligne, faisant 290 morts. Outre la dimension tragique de l’événement, la réaction humaine interpelle : même si, dans ce cas, l’homme est in the loop, il a tendance à se situer déjà on the loop et son pouvoir tend à se réduire à l’exercice d’un simple véto, et non à la formulation d’une décision. Cet exemple illustre les imbrications importantes entre technologie et humanité.
Pour Ronald Arkin, ces recherches sont fondées éthiquement par le fait qu’elles conduiraient à un plus strict respect des normes régissant l’éthique de la guerre. Les robots respecteraient strictement ces droits, et pourraient donc se conduire de manière « plus humaine » que les humains eux-mêmes, puisqu’ils ne sont pas soumis au stress, ou ne ressentent pas le besoin de se venger par exemple . La prévisibilité de la conduite des agents artificiels autonomes serait donc garante d’un plus grand respect des normes internationales.
Le robot bouscule les principes fondamentaux de la guerre et notamment celui de la proportionnalité. L’utilisation croissante des robots sur les champs de bataille a pour conséquence de réduire les risques pour les femmes et les hommes engagés dans le conflit. Or, ce renforcement de l’aspect asymétrique de la guerre conduit à la remise en cause de ce que les théoriciens de la guerre juste, autour de Michael Walzer, appellent l’égalité morale des combattants.
Lire aussi: Projet DIY : arbalète en bois
Cette égalité morale des combattants peut-être résumée par l’idée que c’est parce que je prends le risque de mourir que j’ai le droit de tuer. C’est la vulnérabilité du soldat qui l’autorise à outrepasser le premier commandement biblique. Pour faire la guerre justement, le combattant doit-il être vulnérable ? Or, les robots conduisent à protéger l’homme de la possibilité de mourir sur le champ de bataille.
L’utilisation des drones est critiquée surtout par l’asymétrie posée entre l’opérateur de drone dans le Nevada, qui ne prend aucun risque pour sa vie, et la « cible », au Pakistan, qui ne peut se défendre. Un exemple parlant des répercussions de cette asymétrie est celui des critiques faite à la « distinguished medal of warfare ». En 2013, Léon Panetta décide de créer une médaille pour récompenser les opérateurs et les combattants du cyberwarfare. En effet, précisément parce qu'ils ne mettent pas leur vie en danger, ces opérateurs ne sont pas éligibles aux distinctions traditionnelles.
Ce livre illustre également la vitalité de l’édition dans le domaine de l’armement outre- Atlantique. Peter W. Singer fait en effet partie d’une communauté de recherche qui n’hésite pas à rendre ses travaux accessibles au grand public.
tags: #arbalète #science #fiction #concepts