Depuis quelques années, Kalachnikov, qui vend des fusils, mais aussi des bateaux ou des drones militaires, tente de se tourner vers les marchés civils. Cette stratégie est liée à l'embargo américain sur les ventes d'armes russes, qui l'a conduit à développer des lignes de vêtements, et donc désormais à se tourner vers les motos et les voitures grand public.
Vladimir Dmitriev, l'actuel patron du fabricant russe de fusils d'assaut AK47, a expliqué lors d'un forum militaire près de Moscou que son groupe allait commercialiser une moto électrique de 150 kilomètres d'autonomie dès l'an prochain. « Et croyez-moi ce n'est pas le seul produit que nous allons lancer ! » De fait, l'homme a présenté un robot géant tout droit sorti de Star Wars, un fusil anti-drone et même un prototype rétro de voiture électrique.
Le CV 1, c'est son nom, rappelle furieusement un modèle soviétique de l'époque Brejnev (le combi IZH 2125 pour être précis). Cette nouvelle version lithium-ion serait capable de rouler 150 kilomètres avec une charge, avec une vitesse de pointe de 80 kilomètres/heure. Le prix et la date de sortie n'ont pas été précisés, mais Kalachnikov entend bien « rivaliser avec les constructeurs mondiaux de voitures électriques, comme Tesla ». Après tout, le fabricant d'aspirateurs Dyson nourrit la même ambition…
Moins cher qu'un missile, lançable de partout, le drone kamikaze que lance le russe Kalashnikov vise les armées au budget serré, mais pose la question des robots tueurs, et de l'arsenal des terroristes. A première vue, la machine donne dans le déjà-vu : on dirait une aile volante autonome, un drone comme il en existe dans le grand public, le genre qu'utilisent agriculteurs pour surveiller leurs récoltes et sites industriels pour garder un œil d'aigle sur la sécurité de leurs installations. Pourtant, KUB est bien différent. KUB, c'est le nom de ce drone inventé par le fabricant russe Kalashnikov et dévoilé au récent salon de la Défense d'Abu Dhabi, l'un des tous premiers drones kamikaze.
Sous des dehors de drone civil, la machine est en fait un missile, simplifié à l'extrême, où tout serait léger, même le prix. Après avoir révolutionné la guerre avec l'AK-47 qui a fait de sa marque un nom commun, Kalashnikov veut mettre un pied dans le futur du combat à distance. Avec ses 120 centimètres de large et un petit moteur électrique, le drone peut embarquer une charge explosive de trois kilos environ, qu'il pourra acheminer jusqu'à sa cible, en trente minutes, jusqu'à 70 kilomètres de distance. Kub vole assez haut pour rester discret, puis fond en piqué sur son objectif. Comme un missile, certes moins rapide, mais beaucoup plus simple à mettre en oeuvre, beaucoup plus discret aussi.
Lire aussi: Avignon : Retour sur la vague de tirs
L'attrait du système tient à sa légèreté, pas seulement celle du drone, mais aussi celle du lanceur qui l'accompagne, une petite remorque que l'on peut attacher à un 4x4. Si personne chez Kalashnikov ne donne de précisions sur le prix précis de KUB, la promesse, c'est celle du low-cost, une arme accessible à des armées de petits pays, qui n'ont pas les moyens de se payer des systèmes d'armes sophistiqués. Une façon aussi de passer au travers des restrictions d'exportation d'armements plus traditionnels, mais de quoi poser question, alors que des drones civils sont déjà régulièrement modifiés pour devenir des armes.
Dernière question que pose le Kub : celle de la démocratisation de technologies qui créeront les robots-tueurs de demain, dans les airs comme au sol, des armes autonomes capables, grâce à la reconnaissance de cibles, de prendre seules la décision de tirer. L'année dernière, un groupe d'experts de l'ONU avait demandé un moratoire sur le développement de ces technologies.
Comme chaque année depuis 2014, plus de 70 Etats parties à la Convention sur certaines armes classiques (CCAC) se sont réunis, le 20 et 21 août 2019, à Genève, afin d'examiner les préoccupations soulevées par ce qu'on appelle les "systèmes d'armes létales autonomes" ou SALA. Et comme pour chaque session - celle-ci étant la huitième - les tractations n'avancent pas. Conséquence de quoi, aucun texte légal ne régit aujourd'hui cette question. "Les discussions sont en cours et ne sont pas prêtes de se terminer", reconnaît Raja Chatila, professeur et directeur de l'Institut de systèmes intelligents et robotique (ISIR).
"La première difficulté est celle de définir le SALA et notamment l'autonomie", averti Raja Chatila. Si aucun texte légal ne définit encore ce type d'engins, la Croix Rouge Internationale fournit une définition communément admise : c'est une arme qui sélectionne par elle-même sa cible et la détruit. Pour le chercheur en robotique, distinguer autonomie opérationnelle et décisionnelle est indispensable. La première va permettre à une machine, de par exemple se mouvoir dans l'espace de manière autonome. Il s'agit souvent d'une simple progression dans l'automatisation des systèmes de contrôle, dont les premiers jalons ont plusieurs décennies.
Ce genre de fonctionnalité pourrait également être utilisée dans le domaine civil, par exemple pour être intégrée à des drones de livraison. Pour rappel, les drones militaires dans leur forme actuelle n'embarquent pas de pilote mais sont télécommandés à distance par un être humain. C'est la seconde fonction - l'autonomie décisionnelle - qui définit réellement un SALA. "C'est le choix de la cible qui est problématique. On dit que l'autonomie s'exprime dans les fonctions critiques, soit la décision de vie ou de mort", précise le professeur.
Lire aussi: Évolution et performances des AK-47 et AK-74
Parler de "robot tueur" est donc une aberration. Cette expression suggérerait que le robot serait animé par l'intention de tuer voire qu'il en serait conscient, ce qui n'a aucun sens pour une machine dont les actions sont le résultat de sa conception et programmation par des êtres humains. Entre les deux, il y a des cas plus compliqués. Exemple : les drones vagabonds capables de survoler, pendant de longues heures, une région à la recherche de signaux radar. A chaque station radio détectée, ils lancent un missile. Ces engins sont dotés d'une autonomie décisionnelle sans visée létale. Ils n'ont cependant aucune réelle capacité d'analyse ou de prise de décision : ils appliquent simplement une règle préétablie.
"Ce n'est pas une autonomie totale au sens où la machine fait ce qu'elle veut. Elle est circonscrite dans un certain choix, une certaine signature", poursuit Raja Chatila. Pour apprendre à un robot la cible qu'il doit détruire, les développeurs vont lui montrer une quantité suffisante d'images la représentant. A partir de ces données, elle va établir un modèle statistique (par machine learning) qui va lui permettre de reconnaître des images similaires sur le terrain. Mais attention là encore : la machine ne comprend pas ce qu'elle "voit".
"Les conditions exactes au moment du déclenchement du tir, c'est-à-dire quand la machine va décider de déclencher une action, ne sont pas connues par un être humain puisque l'objet autonome choisit lui-même sa cible", explique le scientifique. On peut apprendre au système à reconnaître avec un taux de réussite élevé la silhouette d'un char d'assaut pour qu'il tire dessus quand il en voit un. Mais quid d'un char d'assaut qui s'est rendu ou qui se trouve au milieu d'une population civile, protégée par le droit international humanitaire ? Il faut donc bien distinguer "l'intelligence" de l'engin (une forme d'abus de langage) et le discernement dont est doué un être humain.
"Même si le système s'améliore, il y aura toujours des erreurs", prévient le roboticien. Pourquoi ? Les machines n'ont aucune capacité de discernement. "En tant qu'être humain, on a des capacités de reconnaissance des situations qui nous entourent, de raisonnement, de replacer les choses dans un contexte, interpréter correctement une situation même si elle évolue, comprendre les intentions des gens…" répertorie le directeur de l'IRIS avant d'ajouter "une machine ne pourra jamais l'avoir car n'est pas modélisable, programmable ou encore apprenable".
"Il va falloir implémenter les règles de droit international humanitaire dans la machine", explique Eric Pomes, docteur et chercheur en droit à l'Institut Catholique de Vendée (ICES). Or, chaque Etat n'interprète pas cet arsenal de la même manière. Le juriste prend l'exemple du "dommage collatéral". L'Armée américaine estime qu'un tel dommage est quantifié en fonction de la valeur de la cible. Les autres Etats considèrent que les dommages collatéraux se calculent par rapport à l'avantage présent et concret d'une opération. Les systèmes autonomes, en fonction de leur nationalité, appliqueraient donc des règles différentes.
Lire aussi: Kalachnikov : découvrez le stand de tir
Et que se passerait-il si la machine tirait sur la mauvaise personne ? Cela constituerait-il un crime de guerre ? "On ne peut dire qu'il n'y a pas de responsable. Il y en a juste trop : le concepteur, le programmeur, le fabricant, l'armée qui a fait la passation du marché, le militaire…" révèle Eric Pomes, puis ajoute "si j'étais avocat d'un militaire, ma défense serait de dire que le système apprend d'une manière qu'il m'est impossible de comprendre". En effet, l'arrivée hypothétique des SALA sur les terrains de guerre amène également à repenser l'organisation des commandements.
La problématique de la responsabilité d'un système basé sur des techniques d'intelligence artificielle (IA) n'est pas circonscrite aux SALA. Elle se pose dans des termes similaires en robotique médicale. En cas d'incident pendant une opération, qui serait responsable ? "On aura des difficultés à trouver des liens de causalité d'où la question de savoir s'il faudra créer des systèmes de responsabilité spécifique pour l'IA ?", présume le juriste.
"Peu de gens se posent la question de savoir à quoi pourrait servir un SALA : imaginez une zone polluée où il serait dangereux d'envoyer une unité. La machine aurait un intérêt considérable. On peut aussi penser aux SALA purement logiciels, sans contrepartie physique." Il regrette que les discussions se crispent sur la question de savoir si on interdit préventivement ou non ces armes. "Les ONG imaginent qu'un traité pourrait permettre d'abolir complètement l'usage des SALA, or c'est faux ! Ce sera le cas entre les Etats qui auront signé et ratifié le traité mais pas pour les autres".
"Finalement, ce n'est pas vraiment un problème juridique, c'est un problème éthique : est-on prêt à laisser à une machine le choix de la cible ou pas", tranche le juriste. Cette problématique répond à une interrogation plus générale. Pour l'instant, selon la majorité des experts, aucun pays ne s'est encore doté de SALA, entendu strictement.
Dans le cadre de leurs opérations en Syrie, et d’après le général Vladimir Chamanov, devenu député à la Douma, les forces armées russes ont évalué et testé « plus de 200 nouveaux types d’armes », dont le robot de combat terrestre [UGV pour Unmanned ground vehicle] Uran-9, encore appelé 766 UPDK. Les Russes ont engagé des robots de combat en Syrie, ce qui a surpris tout le monde, et en premier lieu les Américains. Selon les informations disponibles à son sujet, l’Uran-9 a été conçu pour des opérations de reconnaissance, d’appui-feu et de destruction. Pour cela, il est doté de missiles antichars « Ataka », du « lance-flamme à roquette » Shmel-M, d’un canon de 30 mm et d’une mitrailleuse de 7,62 mm.
Cela étant, il est apparu que les essais de l’Uran-9 en Syrie n’ont pas été totalement satisfaisants. Ainsi, ce robot de combat terrestre aurait perdu le contact avec sa station de contrôle à 19 reprises [dont 17 pendant un minute et au moins une fois jusqu’à un heure et demie]. Le système de commande de tir à distance aurait aussi connu des ratés, le canon de 30mm ayant tiré soit en retard, soit pas du tout, à au moins 6 reprises. Un autre problème est qu’il est difficile de stabiliser l’armement, l’optique et les capteurs du robot au moment du tir. Aussi, ne pouvant pas tirer en mouvement, il est nécessaire de le faire arrêter avant d’engager une cible, ce qui augmente sa vulnérabilité.
Selon ce programme, les adolescents russes pourront se familiariser avec "les moyens d'utilisation militaire des drones" ou encore la manière de "mener des missions de reconnaissance à l'aide d'un drone". Ils auront aussi la possibilité de "mener des actions concrètes de pilotage de drones", ainsi que d'apprendre les façons de parer les "drones de l'adversaire". Les classes concernées par ces cours correspondent à la tranche d'âge 15-17 ans, dans le cadre de la "formation militaire initiale". Cette formation, qui existait à l'époque soviétique avant de tomber en désuétude, a été relancée pour la rentrée de l'année scolaire 2023-2024. Elle prévoit notamment une familiarisation avec des armes de guerre telles que le fusil d'assaut Kalachnikov et compte au moins 140 heures de cursus.
Aujourd’hui, la très grande majorité des drones utilise une ou plusieurs liaisons de données. Ceci est vrai aussi bien pour les drones militaires que pour les drones civils. Toutefois, des appareils peuvent techniquement aussi être mis en œuvre sans moyen de communication, de manière totalement autonome. Une liaison de données impose d’émettre et de recevoir de l’énergie électromagnétique. C’est donc quelque chose d’indiscret qui peut être intercepté et brouillé. D’ailleurs, la détection radiofréquence et le brouillage sont parmi les moyens privilégiés dans la lutte anti-drones.
En conséquence, il apparaîtrait alors pertinent de privilégier des drones qui fonctionnent de façon totalement autonome, soit en pré-programmant leur trajectoire, soit en les dotant de l’intelligence nécessaire pour évoluer en toute autonomie. Si le drone est utilisé à des fins d’attaque et de destruction, l’opérateur doit être en mesure d’ajuster précisément sa cible. Bien entendu, une attaque à partir des coordonnées reste possible mais cela signifie alors que l’attaquant a réussi à obtenir celles-ci par un autre moyen (Google Earth, par exemple), que la taille de la cible est relativement imposante pour être touchée en tenant compte de l’imprécision de la position (quelques mètres avec un guidage par satellite), et que la cible est fixe.
L’arrivée de l’intelligence artificielle (IA) dans les drones pourrait permettre des attaques en mode autonome (donc sans liaisons de données), relativement précises, sans coordonnées, ni même désignation préalable d’objectif. Si l’algorithme a été entraîné à attaquer un ou plusieurs types de cibles (reconnaissance image), on peut effectivement imaginer que des drones puissent patrouiller sur des zones données et passer à l’attaque en cas de reconnaissance d’une des cibles enregistrées. Toutefois, l’IA a des limites et est encore assez facilement leurrable, ce qui fait que le risque d’attaque de « fausses cibles » est élevé, ainsi que celui de la non-reconnaissance d’une cible.
Si de tels drones étaient effectivement utilisés de manière totalement autonome, on serait clairement face à un système SALA (Système d’Arme Létal Autonome), ce qui pose des problèmes éthiques à certaines nations, notamment aux pays européens. Il est toutefois peu probable qu’à court terme l’emploi totalement autonome de ce type de drone se généralise dans les armées. Les risques d’erreurs demeurent importants et cela nuirait grandement à l’image de la nation utilisatrice.
Néanmoins, le risque n’est pas totalement absent à moyen/long terme sur certains drones militaires, puis dans le domaine des drones civils, sans pour autant que cela devienne systématique. En effet, cela ne répondra pas aux besoins opérationnels de C4ISTAR (Computerized Command, Control, Communications, Intelligence, Surveillance, Target Acquisition and Reconnaissance) des forces. Sauf quelques cas bien particuliers, les drones resteront connectés à leurs opérateurs car c’est bien là leur atout principal par rapport à d’autres moyens potentiellement moins chers (obus par exemple) ; et le besoin d’identification des drones rend nécessaire la présence d’un système de signalement électronique, comme pour les aéronefs pilotés.
Les autorités russes viennent d’annoncer très officiellement que l’unité de robots de combat Platform-M a été intégrée pour la toute première fois à un dispositif opérationnel déployé à l’occasion d’une campagne d’exercices militaires. Cette unité composée exclusivement de robots a participé à l’ensemble des exercices qui ont eu lieu mi-juin 2015 dans la région de Kaliningrad et a donné entière satisfaction.
Platform-M est une plate-forme robotisée « télécommandée » de combat dédiée au renseignement, à la détection et à la neutralisation de cibles fixes et mobiles. Très polyvalente, elle peut être utilisée en soutien, en appui feu, en défense d’une base militaire, ou dans une mission plus offensive de prise de contrôle d’une zone urbaine tenue par l’ennemi. Chaque robot Platform-M peut être doté de fusils d’assauts de type Kalachnikov, de quatre lance-grenades ou de missiles antichar en fonction de la nature de la mission.
A l’issue de l’exercice, le bureau de communication de la région militaire ouest précisait que l’unité de robots Platform-M avait reçu comme objectif principal la neutralisation des groupes armés insurgés engagés en contexte urbain et qu’elle avait procédé au traitement des cibles fixes et mobiles. Le groupe de Platform-M a également construit un passage sécurisé dans un champ de mines laissé par l’ennemi. Durant sa mission, l’unité de robots a été accompagnée et a collaboré avec une escadrille de petits drones de reconnaissance de type Grusha BPLA déployés à proximité de la zone d’intervention.
Sur le plan fonctionnel, ce dispositif s’avère très cohérent : des drones de petit format apportent de l’agilité en milieu urbain puis fournissent des renseignements et de la reconnaissance aérienne en temps réel. Les gains sont potentiellement importants et variés : baisse de la létalité, économie d’effectifs engagés, optimisation des munitions, vitesse de déplacements accrues, agilité en milieu encombré ou en environnement dégradé (nucléaire, bactériologique, chimique), résilience du dispositif (la panne d’un des robots ne stoppe pas l’intervention des autres), baisse du stress des personnels, effet psychologique sur un adversaire équipé d’armes conventionnelles et affrontant une unité robotisée.
Téléguidés par un opérateur humain depuis un poste de contrôle distant, ils possèdent toutefois une forme d’autonomie durant la phase de combat lors de l’acquisition des cibles. On peut supposer qu’il existe, en marge de l’exploitation de l’unité, une intense activité de R&D algorithmique afin de créer une coopération de type multi-agents (peu supervisée) entre les robots du groupe.
Comme toute grande puissance militaire, la Russie oriente les évolutions de son armée vers une technologisation globale avec le développement de drones de combat et d’observation. Cette orientation stratégique ne fait d’ailleurs que répondre à l’hyperactivité américaine dans le domaine de la robotique militaire. La course au robot combattant est bel et bien lancée. La Russie possède un savoir-faire important dans le domaine de la robotique civile et militaire.
Les transferts de technologies du secteur spatial russe vers celui de la robotique militaire ont permis de limiter le retard de développement par rapport aux concurrents américains, japonais et coréens. Selon l’Amiral Aleksandr Vitko, commandant la flotte de la Mer Noire, il est question de diminuer fortement le volume de soldats issus de la conscription pour les remplacer par des soldats professionnels hautement qualifiés, capables de superviser des unités robotisées.
A l’heure actuelle, Platform-M est un système d’armes télécommandé par des superviseurs humains donc doté de très peu d’autonomie. Ses concepteurs (les chercheurs du Progress Scientific ResarchTechnological Institute of Izhevsk) souhaitent que les robots évoluent vers d’avantage de capacités d’adaptation au terrain et au contexte de combat. Les machines devront pouvoir coopérer entre elles et savoir se réorganiser de manière autonome en cas de neutralisation d’une partie de l’unité.
L’évolution d’un système d’arme vers plus d’autonomie requiert plus d’IA. Il est aujourd’hui évident que ce principe simple va provoquer une course au développement de l’IA au sein de tous les grands laboratoires engagés dans des programmes de robotique militaire. L’augmentation de l’autonomie et de l’IA dans les systèmes d’armes suscite également quelques oppositions.
L’Institut américain Futur of Life Institute (FLI) a publié une lettre ouverte dénonçant les dangers que représentent les armes autonomes et demandant leur interdiction immédiate à l’échelle mondiale. Tous s’accordent pour dénoncer l’avènement des robots tueurs dont l’autonomie est rendue aujourd’hui possible par les récents progrès de l’intelligence artificielle. Pour autant, la course à l’IA d’armement ne sera pas ralentie par ce type d’initiative.
tags: #drone #robot #kalachnikov