Technologies militaires

Photo de l’US Army

Démonstration des applications meurtrières du robot MAARS, l’un des quatre véhicules terrestres téléguidés, à Fort Benning, en Géorgie, le 16 octobre 2013.

Les systèmes autonomes létaux et l’avenir de la guerre

par Daniel Sukman

Imprimer PDF

Pour plus d'information sur comment accéder ce fichier, veuillez consulter notre page d'aide.

Le major Daniel Sukman est un stratège de l’armée de terre américaine. Il possède un baccalauréat de l’Université Norwich et une maîtrise de l’Université Webster. Au cours de sa carrière, le major Sukman a fait partie de la 101st Airborne Division (Air Assault) et du United States European Command. Son expérience de combat compte trois affectations en Iraq.

« Je suis désolé Dave, je ne crois pas pouvoir faire ça. »  – Hal, 2001, l’Odyssée de l’espace

Introduction

La guerre est fondamentalement une entreprise humaine. Il s’agit d’un différend entre des leaders politiques, des soldats et des populations civiles d’États opposés, de même que des acteurs non étatiques. Dans le cadre de cette activité humaine, les États-Unis ont toujours cherché à obtenir un avantage technologique, car cela leur a permis de surmonter les nombreux avantages des adversaires. Le maintien de l’avantage technologique devient essentiel alors que les États-Unis amorcent une période de restrictions budgétaires et doivent réduire de beaucoup la taille de leurs forces.

Aujourd’hui, le monde entame une révolution robotique dans le domaine militaire, une révolution comparable à l’introduction de la poudre à canon, aux débuts de la levée en masse et à la venue des armes nucléaires1. Les systèmes autonomes et sans pilote peuvent transformer fondamentalement l’art de la guerre américain. Cela pourrait changer la façon dont les décideurs positionnent et utilisent les forces terrestres pour atteindre des objectifs stratégiques. Les systèmes autonomes et sans pilote peuvent même modifier les rôles et les missions de l’armée de terre. Afin de tirer parti de la situation, il est indispensable de préciser l’orientation actuelle pour permettre aux armées de mettre sur pied de nouvelles capacités en toute connaissance de cause.

Il est évident que la robotique et les systèmes autonomes auront une place au sein de la société et seront appelés à jouer un rôle plus important dans les futurs champs de bataille. Une question demeure : quel sera le rôle des systèmes autonomes létaux dans l’avenir? Le présent article traitera de l’historique, des tendances politiques nationales et internationales ainsi que de l’éthique relative aux systèmes autonomes létaux sur les futurs champs de bataille.

Historique des systèmes d’armes autonomes

La directive 3000.09 du département de la Défense américain définit le système d’armes autonome comme « un système d’arme qui, une fois activé, peut sélectionner et engager des objectifs sans autre intervention de la part d’un opérateur humain. Cela comprend les systèmes d’armes autonomes supervisés par des êtres humains conçus pour permettre aux opérateurs de ne pas tenir compte de l’exploitation du système d’armes, mais plutôt de sélectionner et d’engager des objectifs sans autre intervention humaine après l’activation. » [TCO]

Les forces américaines ont utilisé et utilisent toujours divers systèmes semi-autonomes létaux dans le cadre de conflits. Les mines terrestres et marines constituent un exemple de systèmes autonomes létaux. L’ensemble de la communauté internationale a tenté de restreindre et même d’éliminer l’utilisation de ces armes, comme le prouvent la Convention d’Ottawa de 1997 et la Convention sur les armes à sous-munitions de 2008.

Les États-Unis ont recours à des systèmes semi-autonomes à titre de composantes des systèmes de défense antimissile et antiaérienne. Il est généralement reconnu que la vitesse des bombardiers à réaction et des missiles balistiques limite la portée des décisions des êtres humains, qui doivent décider s’ils doivent utiliser un missile Patriot comme mesure défensive. Les États-Unis ont connu beaucoup de succès grâce à l’emploi de ces systèmes, malgré quelques erreurs fatales, notamment l’écrasement d’un avion de ligne commercial iranien en 1988, abattu par le système de défense antiaérien Aegis et l’écrasement d’un appareil britannique Tornado au début de l’opération Iraqi Freedom en 2003.

Photo du DVIDS 478841 prise par le Staff Sergeant Maeson Elleman

Une batterie de missiles Patriot de l’armée américaine lors d’un entraînement à la base aérienne de Kadena, au Japon, le 26 octobre 2011.

Parmi les autres systèmes qui possèdent divers degrés d’autonomie, notons le système Phalanx destiné aux navires de surface de la marine américaine, le système antiroquettes, anti-artillerie et anti-mortier américain, de même que le système israélien Harpy, qui peut détecter, attaquer et détruire les émetteurs radars ennemis.

Photo de l’US Navy 150925-N-EH855-225 prise par le Petty Officer 3rd Class Bryan Mai

Le porte-avion USS George Washington mène un exercice de tir réel au moyen de son système de défense rapproché Phalanx dans l’océan Pacifique, le 25 septembre 2015.

Compte tenu du succès des systèmes aériens sans pilote et de la demande de véhicules terrestres sans pilote dans le cadre des récents conflits en Iraq et en Libye ainsi que du conflit en Afghanistan, le département de la Défense des États-Unis continuera probablement à financer la recherche et le développement liés à ces systèmes afin de les améliorer et d’en concevoir de nouveaux. En contrepartie, le grand « succès » des systèmes terrestres sans pilote a été remporté dans l’un des environnements d’opérations antiaériennes/d’artillerie antiaérienne les plus pacifiques que les États-Unis ont connu depuis la guerre civile. Dans un monde où un conflit entre des ennemis de force presque égale peut survenir, les systèmes terrestres sans pilote obtiendront-ils autant de succès et s’avéreront-ils aussi utiles que dans le cadre des opérations Enduring Freedom et Iraqi Freedom? Dans le cas contraire, les coûts liés à la science et à la technologie à court et à moyen terme en valent-ils la peine dans un monde où règne la parité technologique?

Politiques et tendances américaines actuelles

Actuellement, aucun pays, pas même les États-Unis, n’utilise de robots létaux entièrement autonomes. Cependant, les tendances stratégiques en matière de science et de technologie semblent indiquer que dès 2025, en raison des percées technologiques rapides, les forces américaines pourront utiliser des robots et autres systèmes autonomes létaux.

L’intérêt des États-Unis en matière de politiques sur les systèmes autonomes létaux remonte à 1976, au moment où le président Gerald Ford a signé le décret-loi 11905, qui interdisait les assassinats. L’année suivante, le président Jimmy Carter a renforcé ce décret par le décret-loi 12036. Ces deux décrets ont interdit les assassinats politiques directs et indirects. Quatre ans plus tard, le 4 décembre 1981, le président Ronald Reagan a signé le décret-loi 12333, selon lequel aucun employé ou personne agissant au nom du gouvernement des États-Unis ne doit participer à un assassinat ni conspirer en ce sens2. [TCO] Le 3 novembre 2003, avec l’avènement de la guerre mondiale contre le terrorisme, un aéronef sans pilote Predator a lancé un missile Hellfire qui a tué Abu Ali alHarithi au Yémen, faisant fi des décrets susmentionnés3.

Grâce à la publication de la directive 3000.09 du département de la Défense en novembre 2012, les États-Unis ont été les premiers à adopter une politique publique officielle sur les systèmes autonomes. Cette politique a mis en place un moratoire de 10 ans concernant la mise au point de systèmes autonomes létaux et autorise seulement la conception de systèmes autonomes non létaux4. Cette directive revêt une importance particulière étant donné qu’elle reconnaît les dangers que courent les civils sur le champ de bataille et exige la présence d’un être humain « dans l’équation » pour recourir à la force létale. Cependant, cette directive est en vigueur pour une période déterminée et peut être abolie par les autorités supérieures du département de la Défense.

La directive 3000.09 vise également les systèmes autonomes létaux utilisés contre des objectifs non humains, notamment les aéronefs et les missiles balistiques en approche. Plus particulièrement, elle indique ce qui suit :

Les systèmes d’armes autonomes supervisés par des êtres humains peuvent être utilisés pour sélectionner et engager des objectifs, sauf si les objectifs sont d’origine humaine, en tant que mesures défensives locales en vue d’intercepter des tentatives d’attaques saturantes et d’attaques menées lorsque le facteur temps est décisif ou qui visent la défense statique des installations habitées et la défense à bord de plateformes avec pilote5.

Bien que la politique américaine actuelle ne permette pas la mise sur pied de systèmes autonomes létaux sans la participation d’êtres humains, les robots autonomes peuvent être utilisés de plusieurs façons sur le champ de bataille. Les systèmes autonomes sans pilote peuvent maintenir les communications en visibilité directe dans des environnements électromagnétiques contestés. Les systèmes autonomes peuvent remplir de nombreuses missions, notamment en ce qui concerne le renseignement, la surveillance et la reconnaissance (RSR) autonomes, le brouillage intentionnel, les leurres, les relais de communications et le ravitaillement pour assurer le maintien en puissance, ce qui permet de libérer d’autres capacités humaines afin que ces dernières puissent concentrer leurs efforts sur l’aspect létal. Il ne s’agit que de certains des nombreux avantages qu’offrent ces systèmes.

Tendances politiques internationales

Selon les tendances politiques internationales, les pays peuvent interdire l’utilisation de robots et de systèmes d’armes autonomes létaux dans les futurs champs de bataille. Actuellement, les protocoles internationaux imposent l’obligation de ne pas utiliser d’armes qui frappent sans discernement. Bien que les systèmes sans pilote et les systèmes d’armes autonomes potentiels des ÉtatsUnis soient précis, ils sont incapables de déterminer les effets de deuxième et de troisième ordres liés au décès d’un autre être humain.

En 1997, grâce à l’adoption de la Convention d’Ottawa, la communauté internationale a interdit l’utilisation des mines terrestres, l’une des formes originales de systèmes létaux sans pilote. Les États-Unis n’ont pas signé la Convention sur l’interdiction des mines antipersonnel de 1997 en raison de la nécessité, en collaboration avec la Corée du Sud, d’utiliser des mines pour défendre la frontière intercoréenne. Cependant, le choix de ne pas signer de tels traités entraînera une violation des normes internationales, en particulier si les signataires de la Law of Land Warfare (loi sur la guerre terrestre) décident d’interdire les systèmes d’armes autonomes.

En 2010, l’ONU et la communauté internationale ont mis en œuvre la Convention sur les armes à sous-munitions. Ce traité, semblable à la Convention d’Ottawa, interdit l’utilisation et l’entreposage de sous-munitions6.

Reuters RTR6JZ7

Un soldat sud-coréen pointe une mitrailleuse de gros calibre le long de la zone démilitarisée qui sépare les deux Corées et est fortement minée.

Reuters RTXU1A6 prise par Hyungwon Kang

Un panneau indiquant la présence de mines terrestres est accroché à une clôture de barbelés à l’intérieur de la zone démilitarisée séparant la Corée du Nord et la Corée du Sud.

En 2010, l’ONU et la communauté internationale ont mis en œuvre la Convention sur les armes à sous-munitions. Ce traité, semblable à la Convention d’Ottawa, interdit l’utilisation et l’entreposage de sous-munitions6.

Si la communauté internationale proscrit les systèmes d’armes, qu’il s’agisse de mines ou d’armes chimiques ou biologiques, l’interdiction ou la restriction comprend six parties distinctes. Premièrement, l’acquisition, la conservation ou l’entreposage de ces armes; deuxièmement, la recherche et développement élémentaire ou appliqué; troisièmement, la mise à l’essai; quatrièmement, la mise en œuvre; cinquièmement, le transfert; sixièmement, l’utilisation de ces armes7.

Les lois sur la guerre terrestre, rédigées il y a plus d’un siècle, s’appliquent toujours à l’utilisation des systèmes autonomes létaux et, selon toute probabilité, ce sera encore le cas ultérieurement. La Convention de La Haye (IV) requiert que tout combattant ait « à [sa] tête une personne responsable ». La clause de Martens, une règle contraignante du droit international humanitaire, exige expressément l’application du « principe d’humanité » dans les conflits armés. Sans être humain, aucune humanité n’est possible8.

Des exemples récents peuvent témoigner des tendances politiques internationales, dont le lancement de la « Campaign to Stop Killer Robots9 » (campagne en vue d’arrêter les « robots tueurs ») formée par une coalition d’organisations non gouvernementales, y compris l’organisation Human Rights Watch. Le Secrétaire général des Nations Unies a demandé la mise en œuvre d’un plan d’action international pour répondre aux préoccupations concernant les armes entièrement autonomes ou « robots tueurs ». Ces remarques étaient les dernières d’une série de déclarations effectuées par les autorités de l’ONU sur le sujet en 2013, notamment dans le cadre du Conseil des droits de l’homme et de la Convention sur certaines armes classiques10.

En mars 2013, à l’occasion d’un débat à la Chambre des Lords du parlement britannique, Lord Astor de Hever (sous-secrétaire d’État parlementaire pour la Défense; conservateur) a affirmé ce qui suit : « Des systèmes entièrement autonomes reposent sur un certain degré d’intelligence artificielle étant donné qu’ils doivent prendre des décisions de haut niveau dans un contexte environnemental très complexe, dont le résultat peut être difficile à prévoir de façon très précise. Cependant, assurons-nous que l’utilisation des systèmes d’armes demeure toujours sous le contrôle de l’être humain11. » [TCO] Le groupe Article 36, un organisme non gouvernemental britannique, a salué cette promesse, mais demande toujours des traités et des accords internationaux supplémentaires afin de renforcer l’engagement qui vise à ne pas concevoir de systèmes et d’armes entièrement autonomes pouvant lancer des attaques sans contrôle important de la part de l’être humain12.

Le nom du groupe Article 36 fait référence à l’article 36 du Protocole additionnel aux Conventions de Genève de 1977, qui fournit le cadre lié à l’examen juridique des nouvelles armes. Plus précisément, l’article énonce ce qui suit : « Dans l’étude, la mise au point, l’acquisition ou l’adoption d’une nouvelle arme, de nouveaux moyens ou d’une nouvelle méthode de guerre, une [partie] a l’obligation de déterminer si l’emploi en serait interdit, dans certaines circonstances ou en toutes circonstances, par les dispositions du [Protocole I] ou par toute autre règle du droit international applicable à cette [partie]13.

Bien que certaines organisations internationales aient demandé un moratoire sur la mise au point de systèmes autonomes létaux, certains pays ont poursuivi la conception de tels systèmes. En 2006, le gouvernement sud-coréen a entrepris la mise en place de robots SGR-A1 Sentry de Techwin dans la zone démilitarisée à la frontière de la Corée du Nord. Ces systèmes peuvent effectuer le repérage et le ciblage des objectifs de façon entièrement autonome malgré le fait que l’approbation humaine est toujours nécessaire avant de faire feu14.

Les tendances politiques internationales ne constituent pas le seul risque ou facteur de « recul » auquel les États-Unis peuvent être confrontés concernant la mise sur pied de systèmes autonomes létaux. Notre propre doctrine et notre propre leadership sont compromis lorsque l’être humain est écarté de l’équation.

Modification de l’environnement opérationnel entraînée par les systèmes d’armes autonomes

Les technologies sans pilote continueront d’être améliorées, et le nombre d’alliés, de partenaires et d’adversaires qui possèdent de tels systèmes continuera d’augmenter. Nos concurrents nous rattrapent dans ce domaine. Les systèmes sans pilote ennemis rendront les opérations aériennes, terrestres et maritimes plus complexes, car ils permettront aux forces ennemies de poser de nouvelles menaces terrestres et amphibies ainsi que des menaces dans l’espace aérien à basse altitude15.

Les adversaires des États-Unis, leurs alliés et leurs partenaires continueront d’acquérir et de mettre au point des systèmes d’armes sophistiqués, y compris des munitions guidées avec précision, des missiles balistiques, des dispositifs de furtivité et des systèmes aériens sans pilote. Des concurrents avancés, tels que la Chine, la Russie et l’Iran, de même que des intervenants non étatiques comme le Hezbollah, pourraient posséder des armes téléguidées sophistiquées, des technologies de réseau liées au combat et des capacités de frappe de reconnaissance terrestre16.

Bien que les États-Unis conservent aujourd’hui des avantages certains sur ses adversaires, on ne peut pas tenir pour acquis que ces avantages seront permanents. Il est probable que d’autres adversaires étatiques et non étatiques des États-Unis ainsi que les alliés de ces derniers acquerront ultérieurement des systèmes autonomes létaux. Certains de ces adversaires sont moins susceptibles de respecter le protocole international sur l’utilisation des systèmes autonomes létaux.

Les systèmes d’armes autonomes et sans pilote ajoutent une distance physique entre les soldats américains et le champ de bataille. Ils permettent de retirer les êtres humains de l’action cinétique sur le champ de bataille. Grâce à eux, les forces américaines peuvent effectuer des frappes à partir d’une plus grande distance. Cependant, l’utilisation de robots sans pilote et autonomes peut supprimer le respect mutuel entre les combattants sur le champ de bataille, élément qui s’est maintenu au fil du temps. Sans respect mutuel, il devient difficile, voire infaisable, d’engager le dialogue avec les adversaires. Sans dialogue, il est impossible d’atteindre l’état final, ce qui peut mener à un conflit persistant.

L’élément le plus important, et sans aucun doute le plus dangereux, d’un changement lié à l’environnement opérationnel est l’incidence sur le pays à l’origine des attaques. Aujourd’hui, les militaires manœuvrent des systèmes sans pilote, tels que les drones Predator à l’extérieur des installations sécurisées alors qu’ils demeurent en sécurité à l’intérieur des frontières américaines. Des personnes décident d’avoir recours à la force létale sans être physiquement présentes lorsque la force létale est utilisée. Le fait d’exploiter quotidiennement des systèmes létaux à partir du pays d’origine ouvre la voie à de possibles conflits létaux à l’intérieur des frontières des ÉtatsUnis – l’effet souhaité diamétralement opposé des 13 dernières années de conflit.

Photo de l’US Air Force 385448-T-ITD28-717 prise par le Technical Sergeant Effrain Lopez

Un MQ-1 Predator survole Victorville, en Californie.

Les adversaires des États-Unis ont appris que le moyen le plus efficace d’attaquer le centre de gravité stratégique américain (appui de la population américaine) est la guerre d’usure. Plus le nombre de soldats, d’aviateurs, de marins et de membres des Marines qui font une apparition à la télévision ou reviennent au pays « dans une housse mortuaire » est élevé, plus l’appui lié aux opérations à l’étranger diminue. La guerre des drones et l’introduction des systèmes autonomes sans pilote sur le champ de bataille, qu’il s’agisse de camions de ravitaillement ou de chars, suppriment le danger pour les militaires américains sur le champ de bataille. Les adversaires exploreront des moyens asymétriques en vue de les attaquer, et la façon la plus efficace d’y parvenir sera probablement d’agir en territoire américain.

Ces adversaires, bien qu’ils continuent d’envisager des moyens de lancer des attaques dévastatrices de type terroriste semblables au 11 septembre ou même au Marathon de Boston, chercheront des « objectifs légitimes » à l’extérieur des bases aériennes du Nevada d’où les drones sont contrôlés. Ils choisiront probablement de viser les sièges sociaux des entrepreneurs pertinents. Les attaques n’auront pas lieu sur les bases, mais se dérouleront plutôt au moment où des objectifs inopinés se présenteront. Un opérateur de drone qui s’arrête au magasin 711 après son quart de travail est un exemple parfait. On pourrait sans doute considérer des opérateurs de systèmes d’aéronef sans pilote (UAS) létaux comme des objectifs légitimes, qu’ils soient dans une zone de combat, dans un dépanneur en train d’acheter du lait ou sur le chemin du retour après leur journée de travail17.

Le ciblage de personnes à l’extérieur du champ de bataille n’est pas un phénomène nouveau en temps de guerre. En fait, au cours des dernières années, cela a été prouvé par l’assassinat de scientifiques nucléaires en Iran. Rien ne nous laisse penser que nos ennemis adopteraient ce genre de tactiques pour cibler des personnes sur le territoire américain. Cela diffère de ce que nous avons vu de la part des membres d’Al-Qaïda. En effet, les États qui prennent part aux hostilités contre les forces américaines chercheront à mener de telles attaques asymétriques. Ce ne sera pas restreint aux intervenants non étatiques.

Dans la plupart des cas, alors que les opérateurs d’UAS et de systèmes d’armes ne sont pas situés dans la zone de l’objectif, une personne se trouve habituellement sur le terrain pour confirmer l’objectif et donner l’ordre de « tirer ». Cela vaut tout particulièrement pour les objectifs humains « de grande valeur ». Cependant, l’attaque d’opérateurs d’UAS, quel que soit le lieu où ils se trouvent, par des moyens cybernétiques ou cinétiques, change les « règles du jeu » dans l’environnement opérationnel et doit être évaluée par le département de la Défense. Il peut être possible de paralyser la flotte d’UAS en mettant « hors ligne » un ou deux centres de contrôle par l’entremise d’une attaque cybernétique ou cinétique dans le pays d’origine.

Considérations d’ordre éthique

Les soldats, les membres des Marines et les pilotes de chasseur sur le champ de bataille doivent souvent prendre des décisions instantanées concernant le recours à la force létale. Ils ne cherchent pas seulement à déterminer si la personne qu’ils voient par l’objectif est un ennemi, mais également ce que le décès de cette personne signifierait pour la population locale et les chefs tribaux du secteur ainsi que les répercussions sur la famille de la personne. Ils veulent également savoir si son décès créera de nouveaux ennemis. Il est difficile, voire impossible, de penser que des robots tiendront compte de tous ces facteurs ou, du moins, qu’ils ont la capacité de séparer les facteurs pertinents des facteurs non pertinents.

Le fait de faciliter la prise de décision d’entrer en guerre et de tuer d’autres êtres humains constitue un risque important si l’on décide de continuer d’utiliser des systèmes autonomes létaux. Si les militaires américains sont immunisés contre les dangers du combat et que la guerre n’entraîne aucune perte humaine au sein des forces amies, la décision provoque un moins grand débat. La décision d’utiliser des drones pour tuer des talibans au Pakistan et dans les pays situés dans la Corne de l’Afrique, qui sont tous des pays souverains, a été prise avec une telle facilité qu’elle n’a pas suscité de réel débat étant donné que les militaires américains ne courent aucun risque dans le cadre de ces opérations. Des preuves historiques appuient cette affirmation, comme on l’a vu en 1998, lorsque l’on a décidé de lancer des missiles Tomahawk au Soudan et en Afghanistan. Cette situation peut toutefois changer, dans l’hypothèse et au moment où d’autres pays et intervenants non étatiques acquièrent davantage de drones et d’autres systèmes autonomes, ce qui leur permettra de répondre aux attaques américaines.

Photo du DVIDS 1840730 prise par le Petty Officer 1st Class Martin Wright

Un missile d’attaque terrestre Tomahawk est lancé du USS Lassem, un destroyer lance-missiles de classe Arleigh Burke.

En plus de faciliter la décision d’entrer en guerre, les systèmes autonomes létaux ne peuvent pas faire preuve d’empathie et de bon sens comme les êtres humains. Les soldats qui sont affectés à un point de contrôle d’entrée ou qui montent la garde dans une tour peuvent voir le visage d’une personne qui s’approche ou une famille composée de femmes et d’enfants à l’arrière d’une voiture et prendre des décisions liées à l’utilisation de la force létale en fonction de l’empathie et du bon sens propres à l’être humain. Un système robotisé n’est pas en mesure de le faire18. On peut comparer les robots et autres systèmes autonomes à des « psychopathes sans malice » qui ne disposent pas d’un cadre de référence pour comprendre ou prendre des décisions morales ou éthiques en fonctions des conséquences.

Le concept de la responsabilité éthique et légale revient constamment lorsqu’il est question des systèmes autonomes létaux. En plus d’élaborer des procédures liées à la responsabilité immédiate lorsqu’un système autonome blesse, mutile ou tue la mauvaise personne, ou encore, détruit la mauvaise installation, le département de la Défense doit mettre en œuvre des mécanismes afin d’empêcher les organisations humanitaires de poursuivre l’industrie. Le fait de ne pas tenir compte de ces répercussions de deuxième et de troisième ordre peut entraîner une situation semblable à « l’affaire de Union Carbide et du napalm » durant la guerre du Vietnam.

Afin de s’assurer de tenir compte des préoccupations d’ordre éthique dans le cadre de la mise au point des systèmes autonomes létaux, les États-Unis devraient élaborer et diffuser de nouvelles lois et norme éthiques parallèlement à chaque système, ce qui nécessite l’intégration de cadres juridique et éthique au sein des organisations de science et de technologie.

Une « guerre exempte d’erreur » demeurera toujours un mythe. Le fait de garder un être humain dans l’équation n’est pas la panacée contre tous les risques éthiques liés aux systèmes autonomes létaux. En fait, le jugement humain peut s’avérer moins fiable que les indicateurs techniques au cœur du combat. Par exemple, en 1994, lors de l’écrasement de deux Blackhawks de l’armée de terre américaine abattus par un tir ami dans la zone d’exclusion aérienne au-dessus du nord de l’Iraq, les F15 de la U.S. Air Force impliqués sont passés à proximité des objectifs afin d’obtenir une confirmation visuelle avant de les engager19. L’erreur du pilote (et l’erreur humaine à bord des systèmes aéroportés d’alerte et de surveillance qui assuraient le suivi de la situation) a contribué à l’identification erronée selon laquelle il s’agissait d’hélicoptères militaires iraquiens. De même, en 1988, l’USS Vincennes a engagé un avion de ligne iranien parce que le personnel a cru à tort qu’il attaquait le navire. Les ordinateurs du navire de guerre ont indiqué de façon exacte que l’avion était en montée. Ici, l’erreur humaine a laissé croire à l’équipage que l’avion descendait et que sa trajectoire correspondait à un profil d’attaque. Afin de défendre le navire, l’équipage a abattu l’avion20. Enfin, le bombardement de l’ambassade chinoise à Belgrade durant l’opération Allied Force a nécessité le recours à des armes de précision, à des photos-satellites ainsi qu’à un processus de planification efficace. L’erreur humaine liée à l’identification de l’ambassade comme un autre bâtiment a entraîné la perte de civils innocents sur le champ de bataille.

Reuters RTRUZOK

Le 9 mai 1999, des Chinois déposent des fleurs devant l’édifice bombardé de l’ambassade de Chine à Belgrade, en Yougoslavie.

Compte tenu de l’ensemble des considérations d’ordre éthique, il est important de cerner les risques liés à la mise au point de systèmes autonomes létaux.

Questions éthiques

  • La décision de vie ou de mort peut-elle revenir à une machine?
  • Les systèmes autonomes peuvent-ils évaluer la proportionnalité?
  • Les systèmes autonomes peuvent-ils prévoir les répercussions de deuxième ou de troisième ordre?
  • Qui est tenu responsable lorsque les systèmes autonomes prennent une mauvaise décision?
  • Peut-on concevoir un système de responsabilisation juridique concernant l’utilisation des systèmes autonomes?
  • Le recours aux systèmes autonomes augmente-t-il les chances de décider d’utiliser la force militaire afin de résoudre des conflits internationaux?
  • La non-disponibilité d’un objectif militaire humain accroît-elle le risque de lancer une attaque sur des civils?
  • L’utilisation de systèmes autonomes encourage-t-elle les représailles, les ripostes et les attaques terroristes en territoire américain?

Risque lié au perfectionnement des leaders

L’utilisation de systèmes autonomes et semi- autonomes constitue un défi dans le cadre du perfectionnement des leaders dans l’ensemble des forces militaires américaines. La publication ADRP 6.0: Mission Command définit le commandement de mission comme l’exercice de l’autorité par le commandant qui se sert des ordres de mission pour mettre en œuvre une initiative disciplinée dans le cadre de l’intention du commandant afin de permettre aux leaders qui font preuve de souplesse et sont capables de s’adapter de mener des opérations terrestres unifiées21. [TCO] De plus, selon la doctrine du Corps des Marines, la possibilité de surmonter ou de réduire les répercussions du brouillard, de la friction et de la chance sur le champ de bataille nécessite la confiance envers les subordonnés22.

Les systèmes autonomes létaux risquent d’entraîner la perte du discernement qu’apporte l’expérience dans le cadre des opérations terrestres unifiées, ce qui est contraire au concept du commandement de mission. Au cours des 13 dernières années de conflit, les commandants ont accordé aux officiers subalternes et aux sous-officiers un niveau de confiance et d’autonomie jamais vu auparavant au sein des forces américaines. Les connaissances acquises par ces leaders subalternes au cours de la dernière décennie influeront sur eux tout au long de leur perfectionnement en vue de devenir des leaders supérieurs. Dans un monde doté de systèmes autonomes et semi-autonomes, les opérateurs des niveaux hiérarchiques inférieurs prenant des décisions de vie et de mort s’avèrent moins essentiels. Le fait de supprimer un niveau d’opérateurs du monde de la tactique revient à retirer de l’expérience nécessaire aux membres de ce groupe lorsque ces derniers deviendront des leaders opérationnels et stratégiques23. Nous ne pouvons pas créer des capitaines de 27 ans dotés de « l’expérience, de la maturité et de la sagesse » de colonels de 45 ans si ces capitaines n’ont jamais pris des décisions ou acquis l’expérience de combat qui leur permettent de faire preuve de sagesse et de maturité au combat.

La publication Unmanned Systems Roadmap du département de la Défense traite directement du défi posé par l’automatisation continue de la guerre et son incidence sur le perfectionnement des leaders :

« L’automatisation de l’exploitation/l’attaque des plateformes réduira la nécessité d’y affecter des membres du personnel alors que le nombre de militaires nécessaires pour assurer simplement la maintenance des véhicules est susceptible d’augmenter. Cela pourrait radicalement modifier le ratio “dents-queue” au sein des forces de combat et grandement favoriser le personnel de soutien par rapport au personnel de combat. Parallèlement, la nécessité de conserver des décideurs et des leaders combattants de niveaux intermédiaires à supérieurs demeurera telle quelle étant donné que ces derniers connaîtront la stratégie et les tactiques requises pour utiliser et diriger les systèmes autonomes. Le défi consiste en la formation de leaders combattants supérieurs dans un environnement où évoluent un moins grand nombre de leaders subalternes.24 » [TCO]

Si les États-Unis adoptent une vaste gamme de systèmes autonomes létaux, l’armée de terre et la Force interarmées devront apporter des changements profonds et durables au niveau de la doctrine, de l’organisation, du matériel, du leadership, du personnel et des installations (DOIMLPI) et intégrer ces systèmes dans l’ensemble de la culture militaire. À partir du moment où les recrues entreprennent leur instruction initiale, elles doivent être prêtes à accepter que les systèmes autonomes et sans pilote feront partie de leur arsenal. Les systèmes autonomes peuvent consister en des appareils médicaux conçus pour contribuer à sauver des vies ou en des systèmes létaux conçus pour tuer un adversaire que l’être humain ne peut percevoir sur le champ de bataille. Qu’ils soient conçus pour tuer ou sauver des vies, les systèmes autonomes définiront le champ de bataille de l’avenir. Malgré les nombreux risques auxquels nous sommes confrontés concernant la mise au point de systèmes autonomes létaux, l’utilisation de tels systèmes possède certains avantages indéniables.

Photo de l’USMC 150916-M-TE668-001 prise par le Corporal Eric Keenan

Spot, un prototype de robot quadrupède, descend une colline lors d’une démonstration à la base du corps des marines de Quantico, en Virginie, le 16 septembre 2015.

Avantages des systèmes autonomes létaux

La mise au point continue de systèmes autonomes létaux et sans pilote offre des avantages manifestes. La capacité de projeter la puissance et la létalité s’accroît par l’utilisation de systèmes autonomes et sans pilote. Du point de vue de la gestion du personnel, ces systèmes ne possèdent pas le bagage psychologique des êtres humains. Les robots ne souffrent pas d’état de stress post-traumatique à la suite de déploiement. Des robots lourdement endommagés peuvent être mis au rebut et ne nécessitent pas de soins de la part de la Veterans Administration. Les systèmes autonomes et sans pilote augmentent la portée d’action des forces américaines, et l’endurance des systèmes utilisés augmente également. Des systèmes de RSR sans pilote peuvent demeurer en place alors que les pilotes doivent être remplacés après huit heures de quart de travail. Les robots létaux autonomes et autres systèmes procurent des avantages distincts et manifestes dans l’avenir de la guerre. Cependant, les États-Unis doivent tenir compte des considérations d’ordre éthique alors que de nouvelles politiques sont élaborées et que la stratégie en matière d’acquisitions va de l’avant.

Dans une guerre complexe, l’objectif ne consiste pas simplement à remporter la victoire, mais à l’obtenir tout en minimisant nos pertes et les dommages collatéraux en plus d’atteindre les autres buts. Les systèmes autonomes létaux nous permettent de réduire, voire même d’éliminer les pertes, mais à quel prix? Les systèmes autonomes peuvent s’avérer plus compétents pour faire la distinction entre des combattants et des non-combattants sur le champ de bataille, ce qui permet un meilleur ciblage. Les décisions humaines peuvent être erronées en raison de la peur, de la colère ou de la fatigue, ce qui réduit la différence avec les systèmes autonomes. Cependant, aussi aptes que les robots et les systèmes autonomes puissent devenir, le discernement, la prise de décisions et la compréhension de la situation globale leur fera toujours défaut.

L’utilisation de systèmes autonomes létaux dans les environnements de combat, dans lesquels se trouvent peu de civils, réduit davantage le risque et souligne les avantages de tels systèmes. Les systèmes autonomes utilisés pour contrer des sous-marins ennemis ou des systèmes antimissiles sont des exemples où le risque lié aux civils est pratiquement nul. Comme il a été mentionné dans le présent article, la guerre est fondamentalement une entreprise humaine. Les commandants doivent souvent prendre des décisions difficiles dont découlent la vie et la mort durant la guerre dans le but d’atteindre les objectifs. Les systèmes autonomes létaux sans pilote leur fournissent d’autres options dans des situations où les commandants doivent déterminer le moindre des maux.

Conclusion

Partout dans le monde, des pays continuent d’investir dans la robotique et les systèmes autonomes pour diverses raisons. Au Japon, l’utilisation de robots autonomes dans le domaine médical contribue aux soins apportés à la population de plus en plus vieillissante. En fait, 30 p. 100 des robots commerciaux du monde entier existent au Japon25. Ces robots sont strictement non létaux et sont conçus pour aider la population dans son ensemble et non uniquement les forces militaires japonaises. Au contraire, les États-Unis ont investi tant dans les systèmes létaux que dans les systèmes non létaux.

Si l’emploi des drones des États-Unis au cours des 13 dernières années de conflit est un quelconque indice, cela peut devenir une tendance irréversible. La communauté internationale, par l’entremise des contestations judiciaires, des conventions sur les droits de l’homme et des traités internationaux, continuera de restreindre la mise au point et l’utilisation des systèmes autonomes létaux sur le champ de bataille.

Il sera prudent de continuer d’investir dans des systèmes non létaux autonomes, tels que le RSR, le déminage et la reconnaissance CBRN. En plus de sauver des vies et de réduire les risques des militaires sur le champ de bataille, ce type de systèmes sans pilote permettra de créer des postes où l’intervention humaine est essentielle, notamment en ce qui concerne les affaires civiles.

Il est naïf de croire que personne n’armera des robots autonomes simplement parce que les ÉtatsUnis choisissent de ne pas le faire, tout comme de penser que toute convention internationale qui en interdit la création/l’utilisation aura un effet exécutoire sur les pays qui ont l’habitude d’ignorer ou de ne pas respecter de tels traités. Malheureusement, même sans systèmes autonomes létaux américains, les troupes américaines devront toujours tenir compte des robots létaux autonomes conçus/contrôlés par d’autres pays sur les champs de bataille. Les forces militaires des États-Unis devraient anticiper que les autres cultures et menaces n’auront aucun mal à franchir ce seuil, et nous devrions prévoir aujourd’hui – et non plus tard – la façon de les contrer

Le présent article reflète les points de vue de l’auteur et non celles de l’armée de terre ou du département de la Défense américains.

Photo de l’US DoD 735648-F-UHW96-158

Le robot de sauvetage, une utilisation non létale. Un robot humanoïde tout terrain de recherche et sauvetage simule comment il peut soulever et transporter un soldat ou un article pesant jusqu’à 500 livres, et comment il peut saisir des objets fragiles sans les endommager.

Notes

  1. Peter Singer, Wired For War ~ The Robotics Revolution and Conflict in the 21st Century, Londres, Penguin Group, 2009, p. 179, 203.
  2. Executive Orders, à l’adresse Archives.gov.
  3. Shane M. Riza, Killing Without Heart, Limits on Robotic Warfare in an Age of Persistent Conflict, Washington, Potomac Books, 2013, p. 37.
  4. Directive 3000.09 du département de la Défense des États-Unis, « Autonomy in Weapon Systems », le 21 novembre 2012.
  5. Ibid.
  6. « Des solutions mondiales répondant à vos besoins | Désarmement | États parties et États signataires », http://unog.ch/80256EE60057F2B7/(httpHomepages)/5562355D4417A43F80256
    F04007174DB?OpenDocument&cntxt=95A0F&cookielang=fr
    .
  7. Bonnie Docherty, « The Time is Now: A Historical Argument for a cluster Munitions Convention », Harvard Human Rights Law Journal 20, 2007, p. 53.
  8. Christof Heyns, Rapport du Rapporteur spécial sur les exécutions extrajudiciaires, sommaires ou arbitraires, Conseil des droits de l’homme, le 9 avril 2013.
  9. Pour de plus amples renseignements sur la Campagne Stop Killer Robots, consulter l’adresse stopkillerrobots.org.
  10. Rapport du Secrétaire général sur la protection des civils en période de conflit armé, le 22 novembre 2013.
  11. http://www.publications.parliament.uk/pa/ld201213/ldhansrd/text/130326-0001.htm#st_14.
  12. « Killer Robots: UK Government Policy on Fully Autonomous Weapons », Article 36, avril 2013.
  13. Kenneth Anderson et Matthew Waxman, « A National Security and La w Essay Law and Ethics for Autonomous Weapon Systems Why a Ban Won’t Work and How the Laws of War Can », Stanford University, 2013.
  14. Ty McCormick, « Lethal Autonomy », Foreign Policy Magazine, janvier/février 2014, p. 18.
  15. DoD Unmanned Systems Integrated Roadmap 2013-2038.
  16. Robert O. Work et Shawn Brimley, 20YY Preparing for War in the Robotic Age, Center for New American Security, janvier 2014.
  17. Si un taliban devait tendre une embuscade à un opérateur de drone aujourd’hui sur une autoroute du Nevada aujourd’hui, ce dernier pourrait-il faire valoir en cour qu’il est un participant légitime sur le champ de bataille et qu’il devrait être considéré comme un prisonnier de guerre et bénéficier de tous les droits et protections qui découlent de ce statut?
  18. Si l’on considère qu’un enfant moyen de deux ans peut faire instantanément la différence entre une pomme rouge et une balle rouge, un ordinateur ou un système robotisé en est incapable maintenant et ne sera toujours pas en mesure d’exécuter cette simple tâche dans un proche avenir.
  19. « Aircraft Accident Investigation Board Report », U.S. Army UH-60 Blackhawk Helicopters 87- 26000 and 88-26060, vol. 1 (Executive Summary) 3 (le 27 mai 1994), consulté à l’adresse http://www.dod.mil/pubs/foi/Reading_Room/Other/973-1.pdf.
  20. « Formal Investigation into the Circumstances Surrounding the Downing of Iran Air Flight 655 on 3 July 1988 », le 19 août 1988, p. 37 et 42 à 45, consulté à l’adresse http://www.dtic.mil/dtic/tr/fulltext/u2/a203577.pdf. Le rapport a conclu que « le stress, la détermination à accomplir la tâche et une distorsion inconsciente des données ont probablement joué un rôle prépondérant dans cet incident » [TCO]. Ibid., p. 45. Le rapport a également souligné le « respect du scénario », c’est-à-dire la distorsion du « flux de données dans une tentative inconsciente de faire correspondre des éléments de preuve disponibles à un scénario préconçu ». [TCO]
  21. ARDP 6-0 Mission Command, mai 2012 (1-1).
  22. MCWP 6-11, Leading Marines, le 27 novembre 2002.
  23. Shane M. Riza, Killing Without Heart, Limits on Robotic Warfare in an Age of Persistent Conflict. Potomac Books, Washington D.C. 2013, p. 104.
  24. DOD Unmanned Systems Roadmap, p. 39.
  25. Michio Kaku, The Physics of the Future, How Science will Shape Human Destiny and Our Daily Lives by the Year 2100, New York, Random House Publishing, 2011.