par Hervé Morin
Année 2018. Les familles d'un soldat et d'un sous-officier américains reçoivent 100 millions de dollars de dommages et intérêts de la firme Milibots Inc. Les deux militaires, pris comme boucliers humains par des insurgés afghans qui venaient de s'emparer de leur batterie mobile de missiles, ont été "sacrifiés" par le robot autonome JCN 3000 chargé de la protection du convoi. En détruisant la batterie et ses servants, le robot a voulu parer un risque imminent d'utilisation de ces armes, susceptible d'occasionner un plus grand nombre de morts dans le camp allié, a tenté de faire valoir Milibots Inc, lorsque l'affaire a été ébruitée - avant de sortir son chéquier.
2020. Le Tribunal pénal international fait comparaître un "robot casque bleu" Swissor B12, dans une affaire de crime de guerre en Géorgie. C'est le contenu de sa boîte noire qui intéresse le tribunal. La présence de ce témoin mécanique n'a semble-t-il pas empêché ses camarades de section humains de se venger sur des civils d'une embuscade ayant fait des morts dans leurs rangs près d'un village frontalier russe.
Science-fiction ? Pas tout à fait. Ces deux exemples illustrent des scénarios susceptibles de se produire dans un proche avenir, à mesure que les robots autonomes se multiplieront dans les zones de conflit. Seront-ils dotés d'un sens moral pour prendre les bonnes décisions ? Rendront-ils les guerres moins meurtrières ? Le sens du sacrifice de ces "consommables" réduira-t-il les pertes humaines ? En cas de dérapage, qui sera responsable - leur constructeur, l'armée qui les a enrôlés, les robots eux-mêmes ? Mais alors, comment punir une machine ?
Les états-majors commencent à se soucier des enjeux éthiques qui se profilent. En témoigne la publication, fin décembre 2008, d'un rapport intitulé "Robots militaires autonomes : risques, éthique, design", commandé par l'US Navy.
Convoquant Kant, Asimov, la théorie de l'évolution mais aussi les grands concepts de la polémologie (la science de la guerre), ce document passionnant a été rédigé par des chercheurs du département Ethique et technologies émergentes de l'université polytechnique de Californie. Ils invitent in fine les militaires à "se confronter, aussi en avance que possible" aux nouvelles questions éthiques et sociales soulevées par les robots autonomes - "en particulier, avant que des peurs irrationnelles dans le public ou que des accidents causés par la robotique militaire n'enrayent le progrès de la recherche et les intérêts de sécurité nationale".
Les robots militaires sont déjà là, dans les airs, sur terre et même sous les eaux. Ils vont se multiplier : en 2000, le Congrès américain a voté une loi prévoyant qu'en 2010, un tiers des bombardiers fonctionneraient sans pilote. Et qu'en 2015, la même proportion des véhicules de combat au sol fonctionnera sans humain.
Le rôle de ces robots est de remplacer Homo sapiens dans les "boulots ennuyeux, sales et dangereux", selon le département de la défense américain. En 2007, on estimait ainsi que les 5 000 robots déployés en Irak et en Afghanistan avaient neutralisé 10 000 "engins explosifs improvisés".
Pour l'heure, les automates militaires ne sont pas entièrement autonomes. La décision d'engager le feu revient encore à un humain. Mais ce n'est que temporaire. Le roboticien Ronald Arkin (Georgia Institute of Technology) note ainsi que sur des systèmes de surveillance armée de zones frontalières, en Corée du Sud et en Israël, l'option "télécommande humaine" peut être débrayée. A mesure que les multiples systèmes déployés sur un champ de bataille communiqueront entre eux, l'"homme dans la boucle" aura plus de mal à évaluer la situation qu'un système autonome, assure-t-il.
Le chercheur américain estime même que "les robots pourraient agir de façon plus éthique sur le champ de bataille que des humains" : un rapport de 2006 du ministère de la santé américain n'a-t-il pas montré que seulement 47 % des soldats et 38 % des marines engagés en Irak considéraient que les non-combattants devaient être traités avec dignité et respect ?
Tout le monde ne partage pas cette confiance dans les robots militaires. Pour Raja Chatila, directeur de recherche au Laboratoire d'analyse et d'architecture des systèmes (CNRS, Toulouse), "on est encore très loin de pouvoir garantir qu'ils agiront sur une base bien informée". A chaque étape du processus - détection, identification, interprétation, prise de décision, action - "l'incertitude peut se propager", note le chercheur.
Dans des milieux ouverts, il sera indispensable de concevoir des systèmes d'apprentissage, les ingénieurs ne pouvant anticiper toutes les situations. Or si le robot apprend par lui-même, il devient quasi-impossible d'anticiper ses réactions, son comportement. "Ce degré supplémentaire d'incertitude constitue une vraie difficulté", estime Raja Chatila.
A supposer qu'on parvienne à formaliser les bases d'un sens moral et à les implanter dans un automate, celui-ci risque de se trouver confronté à des conflits insolubles : doit-on sacrifier un individu pour en sauver des centaines, par exemple ?
Ces arcanes ont été explorés avec brio par le romancier Isaac Asimov et ses lois de la robotique. Mais Ron Arkin convient que celles-ci sont d'un piètre secours dans un contexte guerrier. Le but n'est plus de faire en sorte qu'humains et robots cohabitent pacifiquement. Mais au contraire, comme le note drôlement le rapport à l'US Navy, "le sens moral ainsi développé doit pouvoir amener les robots à tuer les bons humains (les ennemis) et pas les mauvais (les alliés)".
A cette condition, lit-on encore dans le rapport, "avoir des robots combattants à nos côtés réduira dramatiquement le nombre de nos morts. Cette arme pourrait devenir suffisamment redoutée pour que la guerre cesse in fine d'être une option désirable pour résoudre les divergences entre Etats-nations". Raja Chatila n'est pas convaincu. "Longtemps encore, le "robot moral" ne sera guère qu'un moyen d'enregistrement, susceptible d'éviter les dérapages. Comme ces caméras introduites dans les salles d'interrogatoires." Mais il rappelle que les robots autonomes civils, à qui l'on prévoit déjà de confier des enfants, des malades ou des personnes âgées, posent eux aussi des questions éthiques...
Hervé Morin
Article paru dans l'édition du journal Le Monde du 14.03.09.
.
Aucun commentaire:
Enregistrer un commentaire