Dans son œuvre de science-fiction Le Cycle des Robots, Isaac Asimov se montre visionnaire par bien des aspects.
Il imagine les aventures de Daneel Olivaw, robot humanoïde qui découvre des sensations semblables aux sentiments humains et apprend l’intuition aux côtés du perspicace Elijah Baley. Il dépeint des mondes spatiens, dont les habitants autrefois colons terriens ont éradiqué la maladie, augmenté leur espérance de vie et construit un modèle social sans société : les solariens vivent isolés de leurs semblables mais entourés de robots, dans une abondance matérielle et un désert sentimental.
Les visions d’Asimov posent de nombreuses questions.
Qui, des terriens ou des spatiens, est le plus humain : les terriens, qui se sont arrachés à la nature, ou les spatiens, qui se sont arrachés à la nature humaine ?
Qui, de la nécessité ou de l’abondance, du collectivisme total ou de l’individualisme à outrance, favorise l’évolution ?
Lire aussi: Initiation Tir Sportif Tours
Les romans d’Asimov explorent intelligemment des idées révolutionnaires pour l’époque, faisant de lui une référence de la science-fiction.
Ces trois lois sont censées régir le comportement des robots.
Mais ne peut-on pas imaginer de telles lois pour les hommes ?
Il existe un ensemble de règles censées assurer la bienfaisance des hommes : le droit naturel.
Le droit naturel est également un droit négatif.
Lire aussi: Tout savoir sur les airsoft métal
Le droit naturel garantit à chaque individu liberté, propriété et sûreté, la liberté étant définie comme la possibilité de faire tout ce qui ne nuit pas à autrui.
Par voie de conséquence, l’individu vivant en société avec ses semblables se doit de respecter pour autrui ces mêmes droits : ne pas attenter à la liberté d’autrui, ne pas attenter à la propriété d’autrui et ne pas attenter à la sûreté d’autrui.
Dans les romans d’Asimov comme dans la vie réelle, les robots sont régis par le droit de propriété mais les désactiver n’est pas permis.
Les trois lois de la robotique sont priorisées.
La première est plus importante que la deuxième, elle-même plus importante que la troisième.
Lire aussi: Fusil à pompe : votre allié pour la défense
On pourrait demander à un robot de s’autodétruire : l’obéissance est plus importante que sa propre existence, et moins importante que la préservation du bien-être humain.
Les règles du droit naturel le sont aussi.
La sûreté passe avant la propriété ; personne ne se verra reproché d’avoir pénétré sur la propriété d’autrui et d’avoir brisé une fenêtre pour sauver son prochain d’un incendie.
Frappantes, leurs différences le sont tout autant : un robot n’est pas un homme.
Le robot a été créé pour servir, l’homme est né libre.
Les hommes ne sont pas faits pour servir.
L’individu est en quelque sorte « propriétaire de lui-même » ; le robot a un maître.
Par voie de conséquence, les hommes n’ont pas le devoir inconditionnel de s’entraider.
C’est fortement encouragé, mais leurs obligations vis-à-vis d’autrui se limitent à ne pas nuire.
Les robots, eux, ne doivent pas par leur inaction permettre qu’un humain soit exposé au danger.
Les hommes ont le choix.
Le fonctionnement du cerveau positronique des robots repose sur les Trois Lois, et leurs décisions sont prises en fonction de l’intensité de poussées contradictoires.
Par exemple, si on demande à un robot de frapper un être humain, son cerveau place l’obéissance au second plan, et refuse d’obéir pour ne pas nuire à un être humain.
Un homme peut choisir de ne pas respecter le droit naturel.
Les lois humaines sont dictées par la nature, pas par un créateur.
Les croyants considèrent que l’humanité s’est vue édicter des lois par son créateur.
Mais aucune religion ne fait l’unanimité, et le droit naturel n’est pas un droit divin.
L’homme n’a pas de maître, ni de serviteurs.
Les automates sont enrôlés en nombre croissant dans les conflits armés. L'homme déclenche encore leur puissance de feu. Les états-majors découvrent les implications éthiques de ces innovations.
Année 2018. Les deux militaires, pris comme boucliers humains par des insurgés afghans qui venaient de s'emparer de leur batterie mobile de missiles, ont été "sacrifiés" par le robot autonome JCN 3000 chargé de la protection du convoi. En détruisant la batterie et ses servants, le robot a voulu parer un risque imminent d'utilisation de ces armes, susceptible d'occasionner un plus grand nombre de morts dans le camp allié, a tenté de faire valoir Milibots Inc, lorsque l'affaire a été ébruitée - avant de sortir son chéquier.
2020. Le Tribunal pénal international fait comparaître un "robot casque bleu" Swissor B12, dans une affaire de crime de guerre en Géorgie. C'est le contenu de sa boîte noire qui intéresse le tribunal. La présence de ce témoin mécanique n'a semble-t-il pas empêché ses camarades de section humains de se venger sur des civils d'une embuscade ayant fait des morts dans leurs rangs près d'un village frontalier russe.
Science-fiction ? Pas tout à fait. Ces deux exemples illustrent des scénarios susceptibles de se produire dans un proche avenir, à mesure que les robots autonomes se multiplieront dans les zones de conflit.
Seront-ils dotés d'un sens moral pour prendre les bonnes décisions ?
Rendront-ils les guerres moins meurtrières ?
Le sens du sacrifice de ces "consommables" réduira-t-il les pertes humaines ?
En cas de dérapage, qui sera responsable - leur constructeur, l'armée qui les a enrôlés, les robots eux-mêmes ? Mais alors, comment punir une machine ?
Les états-majors commencent à se soucier des enjeux éthiques qui se profilent. En témoigne la publication, fin décembre 2008, d'un rapport intitulé "Robots militaires autonomes : risques, éthique, design", commandé par l'US Navy. Convoquant Kant, Asimov, la théorie de l'évolution mais aussi les grands concepts de la polémologie (la science de la guerre), ce document passionnant a été rédigé par des chercheurs du département Ethique et technologies émergentes de l'université polytechnique de Californie. Ils invitent in fine les militaires à "se confronter, aussi en avance que possible" aux nouvelles questions éthiques et sociales soulevées par les robots autonomes - "en particulier, avant que des peurs irrationnelles dans le public ou que des accidents causés par la robotique militaire n'enrayent le progrès de la recherche et les intérêts de sécurité nationale".
Les robots militaires sont déjà là, dans les airs, sur terre et même sous les eaux. Ils vont se multiplier : en 2000, le Congrès américain a voté une loi prévoyant qu'en 2010, un tiers des bombardiers fonctionneraient sans pilote. Et qu'en 2015, la même proportion des véhicules de combat au sol fonctionnera sans humain.
Le rôle de ces robots est de remplacer Homo sapiens dans les "boulots ennuyeux, sales et dangereux", selon le département de la défense américain. En 2007, on estimait ainsi que les 5 000 robots déployés en Irak et en Afghanistan avaient neutralisé 10 000 "engins explosifs improvisés".
Pour l'heure, les automates militaires ne sont pas entièrement autonomes. La décision d'engager le feu revient encore à un humain. Mais ce n'est que temporaire.
Le roboticien Ronald Arkin (Georgia Institute of Technology) note ainsi que sur des systèmes de surveillance armée de zones frontalières, en Corée du Sud et en Israël, l'option "télécommande humaine" peut être débrayée. A mesure que les multiples systèmes déployés sur un champ de bataille communiqueront entre eux, l'"homme dans la boucle" aura plus de mal à évaluer la situation qu'un système autonome, assure-t-il.
Le chercheur américain estime même que "les robots pourraient agir de façon plus éthique sur le champ de bataille que des humains" : un rapport de 2006 du ministère de la santé américain n'a-t-il pas montré que seulement 47 % des soldats et 38 % des marines engagés en Irak considéraient que les non-combattants devaient être traités avec dignité et respect ?
Tout le monde ne partage pas cette confiance dans les robots militaires. Pour Raja Chatila, directeur de recherche au Laboratoire d'analyse et d'architecture des systèmes (CNRS, Toulouse), "on est encore très loin de pouvoir garantir qu'ils agiront sur une base bien informée". A chaque étape du processus - détection, identification, interprétation, prise de décision, action - "l'incertitude peut se propager", note le chercheur. Dans des milieux ouverts, il sera indispensable de concevoir des systèmes d'apprentissage, les ingénieurs ne pouvant anticiper toutes les situations. Or si le robot apprend par lui-même, il devient quasi-impossible d'anticiper ses réactions, son comportement. "Ce degré supplémentaire d'incertitude constitue une vraie difficulté", estime Raja Chatila.
A supposer qu'on parvienne à formaliser les bases d'un sens moral et à les implanter dans un automate, celui-ci risque de se trouver confronté à des conflits insolubles : doit-on sacrifier un individu pour en sauver des centaines, par exemple ?
Ces arcanes ont été explorés avec brio par le romancier Isaac Asimov et ses lois de la robotique. Mais Ron Arkin convient que celles-ci sont d'un piètre secours dans un contexte guerrier. Le but n'est plus de faire en sorte qu'humains et robots cohabitent pacifiquement.
Mais au contraire, comme le note drôlement le rapport à l'US Navy, "le sens moral ainsi développé doit pouvoir amener les robots à tuer les bons humains (les ennemis) et pas les mauvais (les alliés)". A cette condition, lit-on encore dans le rapport, "avoir des robots combattants à nos côtés réduira dramatiquement le nombre de nos morts. Cette arme pourrait devenir suffisamment redoutée pour que la guerre cesse in fine d'être une option désirable pour résoudre les divergences entre Etats-nations".
tags: #Asimov #arme #à #feu #histoire