CAIRN.INFO : Matières à réflexion

1 Conditionnées par la réalité des combats qu’elles mènent, les armées ont toujours eu besoin de s’adapter rapidement à la nature mouvante des menaces et au contexte évolutif des opérations. Le levier de l’innovation est considéré, non comme une fin en soi, mais comme un moyen quasi consubstantiel aux forces opérationnelles pour gagner.

2 Au moment où les nouvelles potentialités de l’innovation semblent devenir vertigineuses, les armées renforcent leur attention portée à ces enjeux en adoptant une grille d’analyse qui permet d’objectiver la valeur ajoutée d’une innovation.

3 * * *

4 Technologie à fort potentiel, l’intelligence artificielle (IA), alliée à la robotique et à l’automatisation, est l’objet de tous les fantasmes.

5 Elle fait naître des peurs irrationnelles et alimente des débats apocalyptiques sur la prise de contrôle par la machine des destinées humaines. Souvent symbolisée par le mythe des « robots tueurs », et caricaturée par le fameux Terminator porté à l’écran sous les traits charismatiques d’un célèbre gouverneur américain, elle annonce la nouvelle ère hégémonique des machines. Même si l’on peut se rappeler que le légendaire Terminator, bien que redoutable de détermination, est dénué de toute émotion, donc de morale, et n’est en réalité mû que par une seule et unique macabre mission qu’il ne sait pas reconfigurer.

6 L’IA porte-t-elle les germes d’un bouleversement de l’éthique des conflits armés et d’une modification radicale des rapports de l’homme à la guerre ?

7 La stratégie européenne en termes d’IA s’est fixé des objectifs ambitieux notamment en termes d’investissements publics et privés (20 milliards d’euros par an y seront consacrés au cours de la prochaine décennie) et les enjeux éthiques n’ont pas été négligés. Un groupe d’experts a été mandaté et a remis à la Commission européenne un premier rapport Ethics guidelines for Trustworthy AI. Il identifie plusieurs domaines de préoccupations liés à ces questions. Les biais portés par cette nouvelle technologie ne sont pas sous-estimés. Ils ont été répertoriés par de nombreuses études et sont classés en plusieurs catégories qu’il est désormais possible d’appréhender dans un continuum paix-crise-guerre.

8 Les premières préoccupations soulevées ont trait, sans surprise, au respect du droit à la protection des données à caractère personnel et à la vie privée. Dans leur dimension organique, les forces armées n’échappent pas à ces considérations alors qu’au quotidien, des fonctions ressources humaines comme le recrutement pourraient utiliser des algorithmes puissants. Les normes et la réglementation existantes aujourd’hui permettent d’être confiant dans la capacité à s’affranchir de ces risques déontologiques partagés à l’échelle européenne et ouvrent des perspectives intéressantes aux gestionnaires de ressources pour l’utilisation de ces technologies.

9 En temps de crise et de guerre, d’autres vulnérabilités portées par l’IA peuvent soulever des questionnements plus importants.

10 * * *

11 En opérations, l’éthique est bien plus qu’une simple réflexion personnelle ou collective encadrant des valeurs et des principes. Elle est un moteur de l’action du militaire et le guide souvent de façon quasi « instinctive ». En situation de commandement, elle est le socle des actes de responsabilité, qui se fonde sur un héritage culturel profond, et une humanité enseignée et partagée.

12 Cette éthique des conflits armés peut être qualifiée d’« appliquée » dans le sens où elle confronte en permanence le militaire à des situations concrètes qui lui imposent de résoudre, souvent dans l’urgence et le « feu de l’action », des dilemmes internes.

13 Le cas du vol commercial iranien abattu par la frégate américaine en juillet 1988, à proximité du détroit d’Ormuz pendant la guerre Iran-Irak, est à ce titre très illustratif d’un scénario où le dilemme éthique est au centre des décisions.

14 L’appareil, confondu par le bâtiment américain avec un avion de chasse iranien, était pourtant bien « référencé » à bord du navire mais il semble que l’opérateur n’ait pas eu le temps d’exploiter complètement sa base de données, trompé par un décollage retardé de plusieurs dizaines de minutes et par une tension à bord qui se renforce. L’avion fait cap direct et se rapproche rapidement du navire américain. L’annonce par un spécialiste à bord que l’avion s’est mis en descente accrédite davantage la thèse d’un chasseur militaire hostile. Des systèmes intégrant une IA apte à traiter de façon plus complète et plus rapide les différentes données auraient probablement évité ces premières erreurs d’appréciation. En réalité, l’appareil, un Airbus A320, est toujours en montée, ce que confirmeront les boîtes noires.

15 L’appareil est ainsi classé préventivement comme dangereux et hostile, et malgré le doute émis par les officiers de tir au regard des codes IFF mode 3 (donc civil) affichés, l’engagement à 20 NM est autorisé puis le tir déclenché en ultime recours. Pourtant le commandant du navire n’a de certitude absolue ni sur le type, ni sur la nature du vol. La tension, probablement excessive à bord, et l’expérience, un an auparavant, de l’USS Stark et des dizaines de marins américains tués (l’enquête a établi que le commandant du navire a tardé à tirer) ont sans doute pesé, au moins inconsciemment, dans la décision du commandant.

16 Au-delà de tirer des enseignements sur la vulnérabilité du facteur humain et les limites cognitives en situation d’urgence et de stress intense, il est également possible de constater que certaines vérifications n’ont pas pu être menées faute de temps et de spécialistes disponibles. Alors que les systèmes perfectionnés ont donné les bonnes informations, leur défaut de redondance n’a pas permis de détecter l’analyse erronée d’un spécialiste dont personne à bord ne remet en question la qualité de jugement.

17 L’IA, dans sa capacité à restituer froidement une analyse sur la base d’un grand nombre de données, aurait pu agir comme aide à la décision du commandant en lui indiquant qu’il se rapprochait d’un couloir aérien alors que l’équipage avait fait cap vers des petits patrouilleurs iraniens annoncés agressifs contre les bâtiments américains.

18 La décision du commandant du navire est celle d’un chef militaire qui agit dans le « brouillard », sans adversaire identifié clairement, qui est confronté à l’incertitude d’une situation qu’il analyse dans l’urgence. Sans intention coupable, il a, comme alternatives, la responsabilité d’infliger la destruction et la mort ou perdre sa vie et celles de son équipage. C’est dans cette situation exceptionnelle et dans l’impossibilité de décaler davantage l’action défensive qu’il ordonne le tir.

19 On comprend aisément que, dans ces conditions, la technologie, permettant d’objectiver et d’analyser avec un bon degré de fiabilité et plus rapidement toutes les données d’environnement et de menaces, ne peut être que profitable au décideur opérationnel. Elle lui permet de respecter davantage encore le droit international humanitaire (DIH) ou droit des conflits armés (DCA). Ces règles applicables à toutes les actions armées, créatrices d’obligations fortes pour les combattants et d’exigence nationale croissante envers leurs soldats, sont potentiellement inhibantes et peuvent parfois retarder, voire annuler la décision critique. Elles confrontent ainsi le soldat à une éthique de responsabilité, instrument majeur de maîtrise des risques. En face, les adversaires combattent par des stratégies détournées et asymétriques les idéaux et les valeurs portés par les faiseurs de droit international qu’ils ne reconnaissent pas. Face aux terroristes nourris par le terreau du fanatisme religieux, face aux combattants parfois simplement rapprochés par des « réseaux sociaux », la puissance militaire étatique, fidèle à ses convictions morales, est obligée d’innover en développant de nouvelles technologies plus promptes à détecter, à alerter et à proposer.

20 * * *

21 L’IA n’apparaît pas ici comme un « game changer » qui dénature le rapport de l’homme à la guerre mais bien comme une technologie qui redonne au décideur stratégique ou tactique les leviers qui lui permettent de combattre plus justement.

22 Compte tenu de la complexité de ces technologies « apprenantes », le risque de défiance et de dilution de la responsabilité dans la chaîne hiérarchique qui appelle certainement à un renforcement du principe de vigilance. Il est donc primordial que les militaires employant les futurs systèmes d’armes puissent comprendre et s’approprier ces technologies pour que, au regard des risques encourus lors de l’engagement, la confiance dans les décisions prises par l’encadrement reste un axe fort de performance.

23 La personnalité du chef équilibré, sûr de son jugement et en capacité d’endosser les décisions critiques, de les justifier, mesuré dans l’emploi de la force et apte à maîtriser la violence, est un élément fondamental de la cohésion d’un groupe ou d’un équipage.

24 Le chef est la référence qui légitime l’action. Il doit donc pouvoir maîtriser les fondements qui expliquent ses choix et ses décisions. Dans ces conditions, les algorithmes, porteurs d’aide à la décision, reposant parfois sur les déclinaisons non déterministes, ne doivent pas laisser s’instiller le doute. Il est donc impératif de faciliter la compréhension du cadre militaire des mécanismes induits par ces technologies, qui, loin de discerner à sa place, l’aideront à décider plus vite dans l’incertitude et à agir en conscience.

25 Loin de troquer son autorité rationnelle contre celle plus virtuelle qui l’amènerait à se considérer comme un simple exécutif, il « gardera le contrôle » pour faire face à l’impensable et protéger la vie de ses hommes.

26 Certains principes éthiques devront par ailleurs être pris en compte dès la conception des systèmes d’armes via des exigences techniques, des normes qualifiantes et un examen de licéité imposé par la réglementation. La confiance dans le système d’armes reste fondamentale alors que les futures capacités opérationnelles embarqueront cette technologie parfois avec un degré d’enfouissement important. La transparence des « normes éducatives » des algorithmes intégrés sera de nature à conforter l’utilisateur final de la « qualité » de son armement. Il pourra, grâce à l’aguerrissement et à l’entraînement, renforcer sa propre capacité d’adaptation et de réaction en parfaite symbiose avec ses équipements.

27 * * *

28 C’est à ce prix et sur ces bases que l’IA s’affirmera probablement au fil du temps comme un facteur clé de supériorité opérationnelle. Si les débats actuels nous invitent à nous reposer cette question du sens et de l’éthique de l’action, thèmes légitimes et permanents que les militaires n’ont jamais cessé de questionner, il faut probablement s’accorder sur un point : croire qu’une guerre technologique sera une guerre zéro mort et penser que le risque de dérive éthique est grandissant relèvent tous deux de la même illusion. L’IA offrira une capacité aux forces pour anticiper et réagir plus rapidement, pour créer de la surprise dans des formes opérationnelles variées, et pour maîtriser le temps court. Elle offrira également une opportunité supplémentaire de mieux préserver le cadre éthique des opérations et mieux prendre en compte le souci humain d’éviter les pertes civiles, tout en minimisant les pertes militaires.

29 Dans les temps actuels où l’affrontement direct voire décisif est systématiquement évité au profit de modèles asymétriques et où la menace ne disparaît pas, l’IA permettra ainsi d’apporter des réponses rapides et conformes au droit international humanitaire.

Français

L’IA sera un véritable atout opérationnel car elle permettra au décideur militaire de mieux évaluer la situation et ainsi de donner les ordres adéquats. Cela exige également une réflexion éthique sur les modalités propres à l’IA, en adéquation avec les règles du droit des conflits armés.

  • éthique
  • supériorité opérationnelle
  • décision
  • chef
Philippe Hirtzig
Général de brigade aérienne. Officier général prospective et stratégie militaire, chargé du projet innovation à l’État-major des Armées (EMA).
Cette publication est la plus récente de l'auteur sur Cairn.info.
Mis en ligne sur Cairn.info le 17/02/2020
https://doi.org/10.3917/rdna.820.0168
Pour citer cet article
Distribution électronique Cairn.info pour Comité d’études de Défense Nationale © Comité d’études de Défense Nationale. Tous droits réservés pour tous pays. Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photocopie) partiellement ou totalement le présent article, de le stocker dans une banque de données ou de le communiquer au public sous quelque forme et de quelque manière que ce soit.
keyboard_arrow_up
Chargement
Chargement en cours.
Veuillez patienter...