L’intelligence artificielle (IA) change la manière de penser et de faire la guerre. De Gaza à Téhéran, l’IA est une pièce maîtresse de la guerre menée par les Israéliens et les Etats-Unis. Il s’agit là d’un phénomène caractéristique de l’évolution des moyens technologiques mobilisés dans les guerres modernes. Une nouvelle donne renforce le caractère asymétrique du rapport de forces entre les forces israélo-américaines et iraniennes. L’usage de l’IA pose aussi des questions juridiques et éthiques non négligeables.
L’IA : nouvelle arme
Le progrès technologique constitue un enjeu majeur pour les forces armées. Que ce soit sur les plans stratégique ou opérationnel, la puissance militaire s’apprécie à travers la maîtrise des nouveaux moyens technologiques (au cœur desquels se développe l’intelligence artificielle) : objets connectés, systèmes d’armes létales autonomes, robots et drones militaires (aériens, terrestres et marins) qui assurent des missions de surveillance ou de combat dans les zones de conflit… Si ces nouvelles technologies affectent la définition et la condition même du soldat (qui se trouve soit éloigné du champ de bataille, soit renforcé dans ses moyens offensifs), la nouvelle donne technologique soulève plusieurs enjeux éthiques, stratégiques ou juridiques.
L’IA : un défi pour le droit international
Le droit international est confronté à l’évolution de la pratique de la guerre et de ses vecteurs ou acteurs militaires. Du « soldat augmenté » (aux aptitudes renforcées grâce à des dispositifs matériels et immatériels issus des progrès des technosciences) aux drones (commandés à distance permettant de frapper des adversaires sans intervention humaine directe), l’intelligence artificielle a ouvert un nouveau champ des possibles.
Il n’empêche, l’innovation technologique que représente la robotisation des instruments de guerre pose des questions éthiques et juridiques. Si la diminution du nombre de soldats tués ou blessés constitue un progrès au regard de l’éthique de la guerre, des interrogations persistent sur les conséquences de l’usage des armes autonomes (autonomisation des systèmes d’armes) : le recours à la force (y compris illégal) ne risque-t-il pas d’être facilité ? Sur les théâtres d’opération, comment, en termes algorithmiques, distinguer un combattant d’un non-combattant ? Comment garantir une réaction proportionnée ? En cas d’« erreur de jugement » du robot/drone militaire, à qui sera imputable un tel acte ? L’IA exige un cadre juridique qui reste difficile à concevoir et à mettre en œuvre.
L’IA : la privatisation de la guerre
Les guerres ou situations conflictuelles sont un marché économique qu’ont investi les géants technologiques américains. Ces derniers ont conclu des contrats avec les appareils de défense des puissances étatiques. Des liens qui ne sont pas sans poser des problèmes de dépendance pour ces dernières, y compris lorsqu’il s’agit de la première puissance mondiale.
Ainsi, la société de la Tech, « Palantir », est très liée à l’armée américaine. Cette société d’analyse de données vend ses services au département de la Défense et permet par exemple d’évaluer des cibles potentielles en temps réel.
Il y a quelques jours, Donald Trump a décidé que l’IA « Claude » d’Anthropic ne devait plus être utilisée par le Pentagone et par les entreprises liées au secteur de la Défense. Or, cette décision est confrontée à une difficulté : l’IA « Claude » est au cœur du logiciel de Palantir, que le Pentagone mobilise pour réaliser ses opérations militaires au Moyen-Orient.
Un autre cas illustre la situation de dépendance stratégique dans laquelle un Etat peut se retrouver à l’égard d’un acteur privé dans la technologie. Ainsi, si au début de la guerre russo-ukrainienne, le réseau Starlink a contribué à la défense et aux contre-offensives ukrainiennes (pour les communications tactiques de terrain, les échanges avec les centres de commandement, la géolocalisation des cibles, l’envoi d’images prises par drones…), le changement de position d’Elon Musk a pesé sur les capacités militaires offensives de l’Ukraine, en septembre 2022, en ce sens où il a refusé d’activer le réseau de satellites de télécommunications Starlink, exploité par sa société SpaceX, au-dessus de zones situées dans la mer Noire et la péninsule de Crimée, occupée par la Russie depuis 2014. En agissant ainsi, le milliardaire a empêché une attaque de drones navals ukrainiens contre les navires de guerre russes, basés dans le port de Sébastopol…
L’article L’intelligence artificielle au cœur de la guerre est apparu en premier sur Leconomiste Maghrebin.