L'utilisation de l'intelligence artificielle dans le domaine militaire
L'utilisation de l'intelligence artificielle dans notre société a connu une croissance exponentielle dans tous les domaines, tant dans la vie politique et sociale que dans le domaine militaire. Dans ce dernier domaine, il a été démontré que l'intelligence artificielle est capable d'optimiser et d'automatiser de nombreuses missions militaires. Cependant, tout n'est pas positif, car la même efficacité obtenue grâce à l'utilisation d'algorithmes peut être facilement trompée et piratée.
Pour entrer dans le vif du sujet, il est nécessaire d'expliquer comment fonctionne ce type d'intelligence. Quel que soit le domaine dans lequel l'intelligence artificielle (IA) doit être appliquée, sa mise en œuvre suit le même processus : l'IA combine de grandes quantités de données avec un traitement rapide et des algorithmes intelligents. Cette combinaison permet au logiciel d'apprendre automatiquement et d'automatiser les processus. En ce sens, sa principale différence avec un programme informatique est qu'il ne reçoit pas d'ordres pour obtenir un résultat. Ainsi, en reproduisant un modèle cognitif, il se rapproche davantage de l'action humaine.
Dans le domaine militaire, les informations dont il dispose sont très nombreuses et peuvent aider à la prise de décision. Il a également été démontré que les systèmes logiciels mis en œuvre dans ce domaine contribuent à accroître la sécurité des soldats, sont efficaces dans la recherche et le sauvetage de personnes et sont capables de prévenir les attaques ennemies, parmi de nombreuses autres opérations.
Par conséquent, l'IA n'a pas tardé à s'imposer dans de vastes secteurs sociaux et plus particulièrement dans l'armée, où elle est déjà considérée comme un "grand avantage". Aux États-Unis, par exemple, plusieurs secteurs de ses forces armées disposent de l'IA dans l'analyse des informations, la prise de décision, l'autonomie des véhicules, la logistique et l'armement. À cet égard, les forces armées emploient ce type de technologie de pointe dans les tâches les plus courantes, ainsi que dans l'utilisation de drones.
Les programmes américains Skyborg, NTS-3 et Golden Horde, utilisés par l'armée de l'air, se distinguent à cet égard. Dans le cas de Skyborg, le programme vise à intégrer des systèmes d'intelligence artificielle dans des véhicules aériens autonomes sans pilote afin qu'ils soient capables de fonctionner seuls, sans personne pour les contrôler. Ils étudient également la possibilité de les intégrer à une formation d'avions opérationnels avec ou sans pilote.
Dans le cas du NTS-3, il est capable de développer de nouveaux récepteurs GPS qui intègrent des signaux pour communiquer avec les unités militaires, un exercice essentiel sur le champ de bataille. La Horde d'or, quant à elle, cherche à configurer un système d'armes qui serait inséré dans des bombes ou des missiles guidés, afin qu'ils puissent fonctionner de concert avec d'autres armes. Ainsi, un ensemble d'armes aurait la capacité de partager certaines données, comme la localisation des ennemis ou leurs défenses.
De cette façon, les armes pouvaient réagir en temps réel, réduire les défenses ennemies et partager les tâches de combat, ce qui s'est avéré très efficace dans cette mission.
Un autre exemple est celui de la Chine, qui a déjà annoncé en 2017 sa stratégie avec ce type de technologie, en déclarant qu'elle serait utilisée pour "améliorer la compétitivité nationale et protéger la sécurité nationale". À cet égard, en Chine, l'utilisation de l'IA a augmenté pendant la pandémie de COVID-19 afin d'identifier les personnes infectées par le virus.
Poutine a également déclaré que "celui qui deviendra le leader de la sphère de l'IA dominera le monde".
Malgré son efficacité et ses multiples avantages, il est notoire et en même temps une faiblesse que quiconque connaît le fonctionnement de l'algorithme peut le désactiver ou même le retourner contre ses propriétaires. C'est ce qu'a démontré un laboratoire chinois en mars 2019 qui a réussi à tromper les algorithmes sophistiqués d'IA des voitures Tesla. Au cours de ce processus, ils ont réussi à faire en sorte que les voitures commettent des erreurs de conduite autonome, ce qui a déclenché l'alarme aux États-Unis, à tel point que le secrétaire à la sécurité de l'époque, le général Mattis, a affirmé que la Chine les dépassait dans le développement de l'IA.
À cela s'ajoute le dilemme moral lié au fait que les armes militaires ne sont pas soumises à des ordres humains. À cet égard, l'Union européenne a déjà pris position sur la question en publiant une ligne directrice indiquant que "les systèmes autonomes létaux doivent être soumis à un contrôle humain".