Drones PUR

Cet ouvrage est consacré à une question très ancienne : celle de l’intégration du progrès technologique dans une société dont il perturbe les équilibres existants. La question n’est pas nouvelle puisqu’elle s’est posée tout au long de l’histoire des sciences et des techniques et de l’histoire sociale. Il suffirait également pour s’en persuader d’évoquer les débats et les conflits autour de l’introduction des machines dans le monde de la production ou de la bombe atomique dans l’univers des conflits armés.

L’originalité des contributions qui suivent est de se consacrer à une forme particulière du progrès technique qui induit un processus de transformation socio-économique (la robotisation de nombreux champs de la vie en société) et de la traiter sous un angle original (la dimension militaire et de sécurité de cette robotisation). Le but des contributeurs est d’éclairer le questionnement technique, juridique et éthique qui accompagne ce processus de transformation afin de proposer les mesures utiles à la constitution d’un cadre normatif permettant à la société d’exprimer une volonté commune quant à la place qui doit revenir aux robots et aux conditions de leur mise en œuvre, en particulier dans le champ limité mais essentiel de l’emploi de la force à des fins militaires ou de sécurité. Ce thème suscite un intérêt croissant non seulement des pouvoirs publics mais également des autorités indépendantes chargées de la protection des droits fondamentaux ou des organisations non gouvernementales les plus influentes dans le domaine de la défense des droits civiques, de l’action humanitaire ou des conflits armés. Ces débats ont notamment pris une forme institutionnelle au printemps 2014 avec l’ouverture à Genève d’une session de la Commission sur les armes conventionnelles consacrée précisément aux systèmes d’armes létaux autonomes (SALA) que leurs adversaires appellent d’un nom plus accrocheur les « killer robots ».

Sommes-nous à la veille de l’apparition sur les champs de bataille de « killer robots » dont il conviendrait d’interdire la mise au point et le déploiement ? Les robots de sécurité vont-ils envahir l’espace public et faut-il s’en préserver ? Qui peut être tenu responsable des préjudices causés par des systèmes autonomes susceptibles d’employer la force dans des opérations militaires ou de police ? La mise en œuvre de robots à grande échelle est-elle compatible avec les valeurs d’une société démocratique ? Les différents contributeurs n’ont pas la prétention d’apporter des réponses définitives à ces questions fortement débattues. En revanche, de la masse des réflexions qui sont ici rassemblées se dégage le sentiment que le nécessaire débat public qui doit s’engager sur la question se trouve éclairé par des points de vue certes divergents mais qui fournissent les cadres d’un raisonnement utile. Quelques lieux communs sont définitivement terrassés comme l’inepte crainte d’un « vide juridique » dans lequel se déploierait actuellement la robotisation des fonctions policières et militaires. Des principes éthiques sont posés qui s’articulent avec les équilibres fondamentaux en matière de libertés démocratiques. Des précisions indispensables sont apportées sur le plan technique en ce qui concerne la notion, aujourd’hui centrale, d’autonomie robotique.

Avant d’entrer dans le cœur de la discussion, il convient toutefois de garder présent à l’esprit deux éléments de contexte qui nous sont rappelés fort utilement par Océane Zubeldia et Stéphane Taillat.

En premier lieu, la robotisation du champ de bataille s’inscrit dans une temporalité qui ne nous place pas sous le coup de l’urgence. Les robots actuels, ceux qui se déploient sur les champs de bataille ou dans les opérations de police, relèvent de la catégorie des engins télécommandés et sont donc les successeurs des premiers robots de ce type conçus et mis en œuvre durant la Seconde Guerre mondiale. De même, les premiers essais de drones proprement dits fêtent leur cinquantenaire. On peut prédire sans trop de difficulté que cette catégorie de robots demeurera encore pour un bon moment l’objet des seuls questionnements pratiques, ceux auxquels il faudra répondre pour que les acteurs de terrain puissent les mettre en œuvre dans des cadres définis dont il faudra préciser la nature, les modalités, les sanctions… Il n’est donc nul besoin de décider dans l’urgence et de prendre des mesures qui, par leur caractère inabouti, extrême ou non consensuel, ne feraient qu’enrichir le champ déjà bien encombré des normes ineffectives, satisfaisant les amateurs de théorie pure et de spéculation intellectuelle mais laissant les parties prenantes en proie aux incertitudes et aux aléas.

En deuxième lieu, le raisonnement doit s’affranchir de tout déterminisme technologique simple qui placerait sur le terrain du progrès scientifique et technique des questions qui se posent sur celui de la politique et de la stratégie. Le robot militaire ou de sécurité n’est pas condamnable per se. Le degré de conflictualité dans les relations internationales ou le degré de violence déployé dans les conflits n’est pas une fonction croissante des progrès scientifiques et techniques. Ce n’est pas tant le mariage du drone et du missile Hellfire qui pose problème que l’usage qu’en font les États-Unis dans la conduite de leur politique étrangère. C’est la politique des assassinats ciblés et non pas les moyens par lesquels elle est mise en œuvre qui devrait se trouver au cœur du débat. Que l’on ne s’y trompe pas, un cadre normatif qui restreindrait voire interdirait purement et simplement l’armement des drones ou les drones eux-mêmes ne résoudrait pas la question sur le fond mais en modifierait seulement les conditions de mise en œuvre pratique.

Ces deux éléments de départ nous semblent essentiels. Toute réflexion à visée éthique et normative doit toujours se trouver sous le surplomb de l’effectivité du cadre qui sera proposé et il convient de rappeler à ceux qui en débattent que rien ne sert d’élaborer des cadres théoriques sophistiqués ou de consacrer avec éclat des positions de principe définitives si, par leur nature même, chacun peut aisément prévoir qu’elles n’auront pas prise sur les comportements des acteurs. C’est donc à la lumière de ce point de départ qu’il convient d’aborder les contributions développées dans les parties suivantes de ce livre.

Dans la première partie est mis en perspective le débat actuel en revenant sur certains concepts fondamentaux ou certains éléments de contexte sans lesquels les échanges s’engluent dans la confusion la plus totale.

Tout d’abord, nous distinguerons nettement les drones (et plus largement les robots militaires actuels) des « killer robots » dont l’arrivée serait simplement une question de temps selon les partisans de leur interdiction. Les drones et autres robots terrestres ou maritimes sont le fruit de programmes de recherche, de développement et d’expérimentations menées depuis une cinquantaine d’années. Ils sont les successeurs des premiers robots conçus et mis en œuvre durant la Seconde Guerre mondiale et des avions sans pilotes qui ont fait l’objet d’études nombreuses dans les années 1960. Sur ce point, on lira avec intérêt la fresque historique dressée par Océane Zubeldia. Cette constance dans la poursuite des programmes de R & D en robotique militaire et de sécurité s’explique par de nombreux facteurs, notamment par les avantages que les forces armées et de sécurité espèrent obtenir au plan tactique, qu’il s’agisse de démultiplier les capacités des combattants ou de les remplacer dans des situations où le danger, l’ennui ou la contamination consomment inutilement la ressource humaine. C’est ce que montre Gérard de Boisboissel. De son côté, le colonel Laurent Vidal montre l’avantage qu’apporte la robotique en terme d’efficacité pour les forces de sécurité intérieure, et les possibilités théoriques qu’elle offre pour leurs missions. Sur les théâtres d’opérations contemporains, ces robots, les drones en particulier, sont fréquemment mis en cause à raison des conditions de leur mise en œuvre ou des dommages collatéraux dont ils sont à l’origine. C’est cependant moins le drone en lui-même qui pose problème que la politique d’emploi de ces engins, politique d’assassinats ciblés conduite par les États-Unis dans certains pays comme l’Afghanistan ou le Yémen. C’est ce thème qui est abordé dans la contribution de Stéphane Taillat.

Il convient ensuite de bien distinguer les catégories de difficultés. Les robots actuels posent des problèmes liés à la conception globale de la politique dont ils sont l’un des outils ou à des défaillances humaines dans le pilotage à distance des engins et de leurs frappes. Les « killer robots » soulèvent des questions de nature différente : il s’agit de savoir dans quelle mesure les progrès de l’intelligence artificielle pourraient déboucher sur des engins doués d’autonomie et susceptibles de prendre par eux-mêmes les décisions qui, aujourd’hui, sont de la responsabilité des politiques et de l’administration. Succédant aux robots téléopérés, ces machines à venir seraient capables de prendre par elles-mêmes des décisions, en dehors de toute intervention humaine, singulièrement la décision d’utiliser la force contre un ennemi prédéterminé. Les promoteurs de la campagne « Stop Killer Robots » estiment ainsi que nous sommes à la veille de voir dans les conflits armés des drones capables de se maintenir en vol pendant des durées très longues, de scruter des espaces de manière très fine, d’identifier des cibles et de décider de les détruire sans intervention humaine. On conçoit sans difficulté qu’une robotisation de ce type poserait des questions différentes de la robotisation primitive à laquelle nous sommes confrontés.

La contribution de Catherine Teissier est ici essentielle. Elle porte sur la question de ce que l’on peut appeler l’autonomie dans un système de décision et elle propose de construire une définition rigoureuse de la notion d’autonomie et de délimiter les perspectives de développement de cette intelligence autonome. Cette question sera reprise dans la troisième partie du rapport mais Jean-Baptiste Jeangène Vilmer montre d’emblée que les engins télécommandés et les engins répondant à la définition proposée par Catherine Teissier soulèvent des interrogations fondamentalement différentes et que vouloir traiter des deux dans une réflexion juridique unique se heurterait à des obstacles sérieux devant les juridictions compétentes.

La deuxième partie de l’ouvrage est consacrée à l’état actuel du droit positif qui encadre la production et la mise en œuvre de robots militaires et policiers sur le terrain. Comme nous l’avons dit précédemment, la robotisation permet de préserver les ressources humaines en les exonérant de missions qui peuvent présenter un niveau de danger anormalement élevé (reconnaître un terrain qui peut être contaminé par des armes chimiques ou bactériologiques, s’aventurer dans un espace sans information sur les positions de l’adversaire) ou dont le caractère routinier peut facilement être pris en charge par une machine (assurer une surveillance permanente d’un site susceptible d’être attaqué). Les trois premières contributions de cette deuxième partie devraient normalement convaincre le lecteur que les robots sont d’ores et déjà encadrés par des dispositifs juridiques dont l’emprise est tout sauf négligeable, qu’il s’agisse de l’approche juridique dans son ensemble (Thierry Daups), des questions de responsabilité en cas de faute ou d’accident (Ronan Doare) ou bien encore de l’absence de vide juridique (Caroline Brandao). Dans le cadre du droit existant, l’emploi de robots par les forces armées ne souffre donc d’aucun « vide juridique ». Prenons pour exemple les articles 1382 et suivants du Code civil qui ont été écrits bien avant l’invention des automobiles, ce qui n’a jamais empêché les juges d’en appliquer les principes aux accidents de la circulation. L’automobile ne s’est donc pas développée dans un vide juridique et il en va bien évidemment de même pour les robots civils ou militaires. Bien au contraire, le système normatif existant est multiple, voire proliférant. Ses diverses facettes sont présentées par les contributions de Ronan Doaré pour ce qui est du droit public ou par Dominik Gerhold et Marion Vironda-Dubray pour ce qui est du droit international humanitaire. Dans les deux cas, le soin apporté par les auteurs à définir les termes du sujet (notamment la notion fondamentale de place de l’homme dans la boucle), les cadres en vigueur et leur interprétation à la lumière des techniques existantes montre que, pour l’essentiel, les réponses utiles se trouvent à notre portée. Certes, des débats peuvent encore surgir, par exemple, face à la complexité relative du partage des responsabilités en cas de dommages causés à des tiers. Mais, ces questions ne présentent pas de nature spécifique et sont souvent le fait d’une société dont le niveau de complexité technique, organisationnel, politique est lui-même particulièrement élevé. Que l’on songe à la longueur et à l’incertitude entourant les contentieux de la responsabilité médicale, par exemple, ou des litiges liés à des accidents industriels. À l’heure où des vols de drones au-dessus des centrales nucléaires font la une des journaux, le commandant Christophe Masset rappelle que les drones et engins télécommandés pour les militaires et les forces de sécurité sont l’objet de mesures prudentielles et qu’un cadre réglementaire précis entoure la mise en œuvre de ce type d’engins. La partie se conclut par la réflexion de Sophie Vuilliet-Tavernier sur le nécessaire équilibre entre les progrès de la science et des techniques, les nécessités de la sécurité publique et le respect des libertés individuelles. Sans aller jusqu’à convoquer les mânes d’Orwell, il n’est pas moins évident que la capacité grandissante des systèmes techniques à collecter, stocker et traiter les données personnelles appelle à des règles protectrices spécifiques.

La troisième partie se veut davantage critique et prospective. Il s’agit de prendre le recul nécessaire pour évaluer l’intérêt d’une modification substantielle des équilibres existants. Faut-il en particulier prononcer l’interdiction totale des recherches, de la production et de l’utilisation des « killer robots », c’est-à-dire de systèmes d’armes létaux dont l’autonomie serait assurée par l’intégration d’une intelligence artificielle capable de repousser l’homme en dehors de la boucle de décision ?

C’est à cet effort de réflexion qu’invitait déjà la contribution de Thierry Daups dont le lecteur découvrira par lui-même les conclusions nuancées. Mais, sans les dévoiler prématurément, l’auteur montre combien les apprentis législateurs devraient aborder la question du cadre juridique de la robotisation avec une main tremblante de peur de mettre à mal une construction qui peut très largement fournir un cadre pertinent au développement de la robotique civile et militaire. La remplacer par des constructions hasardeuses serait pour le moins regrettable. Que l’on songe par exemple aux aléas et aux déséquilibres susceptibles de naître de la volonté de certains juristes de conférer une personnalité juridique (entière ou non) à ce qui, techniquement, s’analyse comme un objet de droit et non comme un sujet de droit.

C’est ce que démontrent Alexandre Mayol et Julie David, jeunes agrégés normaliens, dans un louable effort de préconisation quant aux mesures qui permettraient de mieux définir les responsabilités des parties prenantes et, surtout, qui conduiraient à intégrer très en amont de la mise en œuvre les mesures organisationnelles de nature à renforcer la sécurité des acteurs, en intégrant notamment des mesures de prévention des risques à toutes les étapes du processus de conception et de fabrication des drones et autres robots militaires et de sécurité. On lira avec intérêt les propositions des auteurs en ce qui concerne la traçabilité des fabrications ou l’immatriculation des machines.

Cela ne signifie pas qu’il faille s’interdire de réfléchir à une éventuelle désarticulation des cadres normatifs existants sous l’effet d’avancées techniques ou de transformations de nature socio-politique qui en modifieraient les équilibres fondamentaux. Il existe des stimulis politiques qui poussent aujourd’hui au renforcement d’une politique d’encadrement plus strict, voire d’une politique d’interdiction telle que préconisée par Jean-Marie Fardeau au nom de l’organisation « Human Rights Watch ». Cette proposition d’interdiction qui est actuellement débattue devant la Commission pour le désarmement conventionnel de Genève est ici contestée par deux contributions : d’une part, celle d’Eric Pomès pour qui les normes existantes suffisent à prévenir et sanctionner les abus susceptibles d’être commis par le truchement de robots autonomies et, d’autre part, celle de Didier Danet pour qui le principe d’une interdiction n’aurait qu’une portée opératoire limitée du fait, notamment, de la difficulté à cerner précisément la notion d’autonomie qui est au coeur du débat. Par construction, l’autonomie est cette faculté propre de l’homme qui lui donne la faculté d’agir par lui-même en se donnant des règles propres de conduite et d’agir selon sa propre loi. Consubstantielle de la liberté individuelle, l’autonomie s’exprime dans la capacité de l’individu à ne pas se laisser dicter sa conduite ni se laisser dominer par une autorité extérieure de façon servile. Sur le plan du droit, l’autonomie de la volonté est l’une des prérogatives de la personne juridique, ce qui fonde la différence entre la personne et le bien, le sujet et l’objet de droit.               

Si le progrès technique est susceptible de déboucher sur des machines disposant d’une autonomie de ce type, les frontières actuelles entre l’homme et la machine se brouillent. L’usage de robots autonomes à des fins militaires ou policière supposerait de rénover profondément les cadres normatifs et éthiques existants. Reste à vérifier que ce que l’on baptise « killer robot » ou « système d’armes létal autonome » répond bien à cette définition. Qu’appelle-t-on véritablement autonomie dans le cadre d’une machine dotée d’une intelligence artificielle ? On ne saurait rendre un plus grand service à la réflexion sur le cadre normatif puisqu’aucune avancée n’est possible si l’on ne sait pas de quoi l’on parle et quel est l’objet du cadre qu’il s’agit de mettre en place.             

Au travers des trois suivantes et dernières contributions, c’est la question des principes et des modalités d’une politique d’encadrement renforcé qui est abordée. En partant d’une position consistant à ne pas bloquer toute recherche et tout développement des robots militaires et de sécurité, les auteurs s’efforcent de mettre en lumière des principes éthiques ou des solutions pratiques qui permettraient de prévenir les dérives associées à une autonomisation non maîtrisée de ces robots.    

Dominique Lambert, Thierry Pichevin et George Lucas montrent brillamment que les réflexions techniques et éthiques ne peuvent être conduites séparément et que les concepteurs et les producteurs des engins robotisés doivent être en mesure d’intégrer des principes éthiques au cœur même des intelligences artificielles et des systèmes sans pilote.               

Au total, l’ouvrage propose donc au lecteur un ensemble de textes qui nourriront sa réflexion sur une question d’actualité largement débattue et dont les enjeux concernent la manière dont une société démocratique entend exercer la coercition qu’il s’agisse de faire valoir la paix publique en son sein ou d’imposer son projet politique à un ennemi sur un champ de bataille. L’emploi de la force est une question fondamentale de la philosophie politique. Elle trouve avec l’emploi des drones et la perspective plus ou moins futuriste des « killer robots » un terrain d’application tout à la fois renouvelé et privilégié. Les contributeurs espèrent apporter à ce débat des éléments de réflexion utiles. C’est tout le sens de cette publication.

Didier DANET

Maître de conférences (gestion), responsable du pôle « Action globale et forces terrestres » (AGFT), Centre de recherche des écoles de Saint-Cyr Coëtquidan.

Drones et killer robots – Faut-il les interdire, Presses universitaires de Rennes, 272 p, 18 €

Cliquer ICI pour commander cet ouvrage

Lire aussi le magazine des ingénieurs de l’armement (avril  2015) consacré aux Robots

————————

En complément, émission radio suisse RTS du 21 sept 2015 : Les armes autonomes, nouveau défi du désarmement