L'intelligence artificielle dans la sécurité nationale : les limites juridiques

Des termes tels que le big data, la mécatronique et la sensorisation, la prise de décision, l'informatique neuromorphique et la perception informatique sont quelques-uns des concepts et des technologies intégrés à la sécurité intérieure qui sont en constante évolution. Ces avancées scientifiques ont pour seule limite la législation nationale et internationale existante pour éviter leur utilisation sans discernement. En ce sens, cet article analyse les utilisations actuelles et possibles de l'intelligence artificielle en tant que moyen qui s'ajoute aux différentes stratégies d'attaque et de défense dans le cadre de la sécurité nationale, ainsi que la question de savoir si la législation existante visant à limiter son utilisation remplit son objectif.
Dans certains domaines d'analyse, il est courant de chercher un méta-message dans chaque événement ou image, comme c'est souvent le cas avec les couvertures du magazine anglais de relations internationales et d'économie, The Economist, qui a publié en juillet 2020 "Towards a New Normal 2021-2030". Dans ce document, 50 experts mondiaux ont déduit comment la vie en société allait changer, sur la base des tendances actuelles et futures. Parmi les 20 points abordés, ils ont envisagé la mise en œuvre de l'intelligence artificielle (IA) dans chaque acte humain, des questions domestiques à la prise de décisions transcendantes par les gouvernements. Cette information ne peut passer inaperçue, car les progrès technologiques de ces dernières années ont accéléré ce qui, pour de nombreux spécialistes, serait considéré comme une "quatrième révolution industrielle".
.
Ces changements affectent toutes les structures de vie des communautés humaines, allant du bénéfice absolu et contrôlé des avancées scientifiques aux visions apocalyptiques d'un futur qui surpasse l'autonomie, étant donné sa rapidité et son efficacité. Face à ces possibilités, les pays industrialisés ont lancé des discussions sur l'influence de l'IA, y compris les premières tentatives de réglementation ou d'inclusion de lignes directrices spécifiques pour son utilisation par les États dans la défense de leurs intérêts.
Dans les circonstances actuelles, où la sécurité est devenue l'un des aspects névralgiques du développement, le Pérou doit être à l'avant-garde et utiliser tous les instruments qui peuvent garantir la sauvegarde de l'intégrité de ses citoyens et remplir l'objectif de coexistence pacifique, et il est nécessaire de reconsidérer l'existence de limites légales à l'utilisation de l'IA. En l'absence d'exigences minimales, l'utilisation indiscriminée de l'IA pourrait menacer directement ou indirectement la dignité des citoyens (dans des domaines tels que la vie privée et l'intimité), voire leur intégrité (armes à haut degré d'autonomie), d'où la nécessité de prévoir les circonstances environnantes.
Dans ce sens, cet article présente une vue d'ensemble de l'utilisation de l'IA dans la sécurité intérieure, y compris ses domaines de plus grand développement, et analyse les critères juridiques actuels qui limitent son utilisation, en évaluant s'ils tendent à être efficaces face aux événements à venir.
Le début de la quatrième révolution industrielle
Les universitaires et les spécialistes soulignent que, depuis le début du millénaire actuel, le monde est entré dans la première phase de ce qu'ils appellent la "quatrième révolution industrielle". À cet égard, Klaus Schwab, fondateur du Forum économique mondial, souligne que cette nouvelle restructuration de la planète est liée au monde numérique et se caractérise par "...un internet plus omniprésent et mobile, par des capteurs plus petits et plus puissants, de moins en moins chers, et par l'intelligence artificielle et l'apprentissage automatique". Contre cette affirmation, António Manuel de Oliveira Guterres, secrétaire général des Nations unies, a averti en 2018 que le monde n'est pas encore prêt pour la dernière révolution, car le potentiel de chaos social et d'utilisation indiscriminée de l'IA dans chaque situation humaine est en augmentation, conduisant à des masses d'humains remplacés par des machines plus efficaces et à l'utilisation d'armes autonomes sans restriction.
Le "développement de l'IA" étant l'axe de ce processus de transformation sociale, un premier problème se pose : sa conceptualisation, d'où un débat permanent pour la définir, car la seule mention du mot "intelligence" la complique. Par conséquent, lorsqu'on parle d'IA, il existe des éléments constants qui, bien qu'ils n'aboutissent pas à une définition absolue, contribuent à encadrer l'idée.
Pour Nicolas Miailhe et Cyrus Hodes, l'IA est un ensemble d'"agents" (programmes fonctionnant sur des systèmes informatiques) capables d'apprendre, de s'adapter et d'évoluer dans des environnements dynamiques et incertains. En ce sens, la notion d'intelligence s'ajoute à celles d'autonomie et d'adaptabilité par la capacité d'apprendre d'un environnement dynamique. Le réseau ibéro-américain de protection des données souligne que, bien qu'il n'existe pas de définition unique de l'IA, on peut dire que, dans sa conception, il s'agit d'un terme "parapluie", car il englobe différentes idées et techniques informatiques qui évoluent, des algorithmes aux systèmes de calcul Deep Learning.
En outre, l'IA peut être classée en quatre catégories : les systèmes qui pensent comme les humains (systèmes informatiques avec des informations antérieures qu'ils traitent afin de prédire des événements ou des comportements), les systèmes qui pensent rationnellement (avec la similitude de la logique humaine qui est utilisée comme alternative pour résoudre des problèmes au moyen d'inférences), les systèmes qui agissent comme les humains (systèmes pouvant exécuter des fonctions semblables à celles des humains et nécessitant une intelligence) et les systèmes qui agissent rationnellement (ce que l'on appelle la "singularité technologique", c'est-à-dire des machines ayant la capacité d'automatiser un comportement intelligent).
La possibilité d'une amplification des répercussions de l'utilisation de l'IA s'inscrit chaque jour dans la réalité, à tel point que tant les pays que les organisations internationales cherchent à trouver des points connexes pour réglementer l'utilisation de l'IA, parmi lesquels se distinguent les Nations unies, l'Union européenne et l'Organisation de coopération et de développement économiques (OCDE). Par conséquent, il existe un scénario dans lequel l'IA devient omniprésente dans divers domaines privés et/ou étatiques tels que la sécurité nationale.
L'intelligence artificielle dans la sécurité intérieure
Dans ce contexte, il existe plusieurs scénarios publics et privés dans lesquels des techniques d'IA sont développées. Par exemple, dans la thématique des politiques de l'État, la sécurité nationale est considérée comme une considération primordiale, définie par le Centre des hautes études nationales comme "... la situation dans laquelle l'État a garanti son existence, sa présence et sa validité, ainsi que sa souveraineté, son indépendance et son intégrité territoriale et son patrimoine, ses intérêts nationaux, sa paix et sa stabilité interne, pour agir avec une pleine autorité et sans aucune subordination, contre tous les types de menaces".
Considérant qu'un État a l'obligation de sauvegarder sa souveraineté, il doit disposer du maximum de ressources et de technologies pour faire face à toutes sortes de menaces. C'est là que l'IA est un facteur de gravitation en raison de la rapidité et de l'efficacité du résultat dans le binôme attaque-défense, élément de base de toute stratégie de protection de la sécurité nationale. Ainsi, en cas d'attaque, on recherche des résultats sans ou avec peu d'effets collatéraux, et en cas de défense, la priorité est donnée à la protection totale du bien protégé ; cependant, tout cela ne se limite plus au plan physique, mais englobe également le domaine virtuel, d'où l'apparition de la figure de la cybersécurité.
Au niveau mondial, les nations et les organisations supranationales cherchent à développer des projets qui génèrent de nouvelles connaissances et contribuent à améliorer la sécurité des pays, tant au niveau unidimensionnel que multidimensionnel ou, comme le mentionne le Centro Superior de Estudios de la Defensa Nacional (CESEDEN), sur le trinôme parfait pour équilibrer les actions de l'IA appliquée au domaine militaire : le facteur logique (se référant au traitement des données), le facteur physique (armement) et le facteur humain (connaissance continue de la situation).
Risques liés à l'utilisation de l'IA dans les questions de sécurité nationale
Parmi les risques possibles de l'utilisation de l'IA - dans le contexte de la sécurité nationale - on ne peut ignorer que le Pérou est un pays qui acquiert des technologies externes et qu'actuellement, il existe une "course" en matière technologique entre deux puissances : la République populaire de Chine et les États-Unis. D'une part, les investissements chinois passent par des pôles qui s'inscrivent dans une triangulation entre le soutien de l'État, du parti et des entreprises privées afin de consolider sa présence d'ici 2035 et - dix ans plus tard - de battre son principal rival. D'autre part, les États-Unis continuent d'être à la pointe de la recherche dans ce domaine. Toutefois, l'issue de cette "concurrence" est incertaine, même si l'on peut affirmer qu'il y aura des monopoles régionaux et des informations "flottantes" dans les aspects de la sécurité nationale qui deviendront vulnérables à la dépendance d'un autre État.
La position du Pérou en tant que pays importateur de technologies amène à réfléchir au fait qu'aucun acte ou création humaine n'est infaillible et que, dans le cas des nouvelles technologies, le niveau d'incertitude est élevé. Cela ne signifie pas que - à terme - ces erreurs seront relativement surmontées par l'IA elle-même, qui se caractérise par son évolution rapide. À cet égard, dans les affaires relatives à la protection des données, le réseau ibéro-américain de protection des données constate deux risques essentiels : la préconfiguration de l'algorithme et la qualité de l'information. Dans le premier risque, les préjugés du créateur pourraient être introduits, consciemment ou inconsciemment, tandis que dans le second, la façon dont l'IA est programmée pourrait conduire à des généralités dans son traitement des données qui porteraient préjudice à des tiers, sans compter que l'IA pourrait aussi obtenir de fausses données qui biaiseraient ses performances.
En ce sens, ces risques pourraient se produire à la fois par l'accès à des informations de mauvaise qualité et par des manœuvres stratégiques d'un adversaire pour biaiser son comportement. Il ne s'agit pas d'une simple spéculation, car les systèmes peuvent échouer et les biais et l'erreur humaine (intentionnelle ou non) peuvent amplifier ces échecs avec des conséquences catastrophiques, l'IA faisant peser des menaces sur le plan numérique et de l'information. Ainsi, l'utilisation d'algorithmes modifie les scénarios de risque pour la sécurité des citoyens, des organisations et des États.
Un autre risque à prendre en compte est le niveau de vulnérabilité de l'IA aux cyberattaques, qui permettrait de manipuler le système à distance et de le faire agir contrairement à ses objectifs lorsqu'il est "piraté", ce qui permettrait d'obtenir illégalement des informations privées. Ce risque serait accru si l'on s'en remettait à un seul algorithme, car il présente également des risques liés à la sécurité du code et, s'il est corrompu ou altéré, il pourrait laisser les organisations et les États sans défense. D'un autre point de vue, il est possible que les responsables de la gestion de l'IA utilisent et abusent des systèmes par le biais de la cybersurveillance comme méthode de contrôle social, ou en menant des campagnes de désinformation, car ces logiciels ont la capacité d'analyser d'énormes quantités de données sur les citoyens ou les entreprises, et pourraient "profiler" l'élément surveillé à des fins autres que la protection de l'État.
Législation internationale et nationale
L'IA ne doit pas être considérée comme une arme en soi, car elle n'est qu'un moyen créé par l'homme pour résoudre certaines tâches. L'utilisation de l'IA comme instrument ou intermédiaire sophistiqué pour la protection de la sécurité nationale est tout à fait différente, ce qui fait entrer l'IA dans le domaine du débat éthique et, par la suite, juridique.
Sur le plan juridique, il convient de mentionner qu'après la Seconde Guerre mondiale, toute discussion portant sur des questions spécifiques aux technologies dites "de renseignement" était loin d'avoir lieu. Des auteurs comme José Luis Calvo Pérez considèrent la "Convention sur l'interdiction ou la limitation de l'emploi de certaines armes classiques qui peuvent être considérées comme produisant des effets traumatiques excessifs ou comme frappant sans discrimination" du 15 septembre 1980 comme le premier débat sur le sujet. En outre, on peut mentionner la "clause Martens", une déclaration de principes en faveur de l'humanité, dont les conclusions sont largement applicables à des situations similaires.
Avec le temps et face aux possibilités d'erreur, de vulnérabilité ou d'utilisation abusive de l'IA, le souci d'un progrès scientifique rapide face à un débat juridique ralenti conduit les États à chercher à étendre ou à préciser la réglementation. Cette situation s'est produite dans l'Union européenne, où l'on estime que la question dépasse les protocoles en raison de la "course" entre les avancées chinoises et américaines, en évitant de devenir une colonie technologique de l'une ou l'autre des deux puissances. À cet égard, la conclusion à laquelle aboutit l'analyse de l'École polytechnique fédérale de Zurich est qu'un accord mondial sur l'utilisation de l'IA devrait reposer sur cinq principes éthiques : transparence, justice et équité, non-malfaisance, responsabilité et vie privée. Toutefois, cette analyse met en évidence l'existence de désaccords substantiels sur la manière dont ces principes sont interprétés, sur les raisons pour lesquelles ils sont considérés comme importants et sur la manière dont ils devraient être mis en œuvre.
En outre, il convient de souligner que la réglementation de l'IA doit être liée à quatre axes sous-jacents importants dans le débat : la boîte noire (la réglementation ne doit pas être généralisée car les algorithmes utilisés "sont qualitativement différents.... une grande partie du traitement, du stockage et de l'utilisation de l'information est effectuée par l'algorithme lui-même et de manière non transparente à l'intérieur d'une boîte noire de traitement pratiquement impénétrable"), les biais des algorithmes (ils sont liés au programmeur du système et aux biais qui pourraient être programmés ou à un algorithme fondamentalement développé qui peut provoquer des situations discriminatoires), l'éthique de la sélection (entendue comme les cas où la machine prend des décisions dans un scénario conflictuel, qui pour un être humain conduirait à un dilemme moral, dans le cas du système il faut définir qui, dans une telle situation, serait responsable) et le traitement de l'information (comme les systèmes Big Data qui traitent et analysent de grandes quantités de données en temps réduit, la réglementation doit se concentrer sur "comment et à qui - personnes ou organisations - l'accès à ces données est accordé". L'information, c'est le pouvoir et, à l'heure actuelle, une charge excessive est imposée à l'individu pour gérer son droit à la vie privée").
À cet égard, les pays technologiquement capables qui recherchent et développent l'IA en tant qu'arme ou instrument de sécurité cherchent à limiter toute législation qui les affecterait en vertu du droit humanitaire international, car ils considèrent qu'une plus grande spécificité dans la législation constituerait un obstacle aux recherches futures. Cependant, António Guterres, secrétaire général de l'ONU, lors de la conférence sur la technologie à Lisbonne, a insisté sur le fait que toute arme autonome basée sur l'IA devrait être interdite par le droit international, car si l'IA a une fonction en faveur de l'humanité, il existe une facette dans laquelle son utilisation impliquerait le remplacement des humains par des machines, et par conséquent (dans le cas de l'IA comme arme autonome) "les armes [...] auront la possibilité de tuer par elles-mêmes".
Le Pérou n'en est qu'à ses débuts en termes de formulation de propositions législatives sur les questions liées à l'IA dans la défense et la sécurité nationale. Toutefois, ses progrès sont davantage axés sur la question de la cybersécurité, c'est-à-dire l'IA non pas comme une arme de guerre, mais comme un élément des mécanismes de défense dans le cyberespace. Ce constat est corroboré dans le rapport "Cybersecurity 2020 Report : risks, advances and the way forward in Latin America and the Caribbean", où il est mentionné que le Pérou ne dispose pas d'une stratégie nationale de cybersécurité, mais qu'il affiche des progrès en matière de cybersécurité.
En 2000, le Congrès péruvien a promulgué la "Loi qui incorpore les délits informatiques dans le code pénal - Loi Nº 27309", qui pénalise ceux qui transgressent, de quelque manière que ce soit, une base de données ; cinq ans plus tard, la police nationale a créé la Division d'enquête sur les délits de haute technologie (DIVINDAT). Par la suite, en 2001, la "loi sur la protection des données personnelles - loi n° 29733" a été promulguée afin de garantir le droit fondamental à la protection des données personnelles ; tandis qu'en 2013, la "loi sur les délits informatiques - loi n° 30096" a été mise à jour en raison du fait que les systèmes et les bases de données devenaient vulnérables aux nouvelles cyber-attaques et qu'elle est susceptible d'évoluer avec les progrès de la science et de la technologie. Enfin, en 2019, l'avis du projet de loi sur la cybersécurité a été approuvé, qui vise à établir le cadre réglementaire de la sécurité numérique au Pérou, et l'une des réglementations les plus spécifiques en la matière a été promulguée, la "loi sur la cyberdéfense - loi n° 30999", qui réglemente les "opérations militaires dans et à travers le cyberespace par les organes d'exécution du ministère de la Défense dans sa sphère de compétence, conformément à la loi". Grâce à cette loi, l'État péruvien peut mener des opérations en utilisant ses forces dans le cyberespace, toujours sous la protection de la Charte des Nations unies (article 51) et des dispositions du droit international des droits de l'homme et du droit international humanitaire.
Conclusions
D'après ce qui a été analysé, il est clair que le processus d'adaptation à la soi-disant "quatrième révolution" a commencé, même si les spécialistes soulignent que la croissance exponentielle des avancées technologiques et le débat quasi inexistant sur le sujet ne permettent pas au monde d'être préparé à ce changement social. La quintessence de la "quatrième révolution" est la présence de l'IA, qui n'a pas de concept définitif, mais dont certains aspects servent de base à sa définition, comme l'autonomie et la capacité d'adaptation par l'apprentissage. En ce sens, comme les puissances industrialisées ont le monopole de la dernière génération d'IA, des pays comme le Pérou deviennent un "acquéreur captif" de la technologie, ce qui implique des coûts plus élevés de programmation et de mise à jour.
Le débat international sur la légalité de l'utilisation de l'IA lorsqu'elle est utilisée dans des armes autonomes est généralement mené par les puissances qui la recherchent et la développent et cherchent à la limiter aux principes du droit international humanitaire ; en revanche, dans le domaine impliquant l'IA sur la cybersécurité, les règles sont constamment mises à jour. Dans le cas du Pérou, depuis l'an 2000, l'objectif est d'être à l'avant-garde législative des avancées scientifiques, mais surtout des soins et des sanctions contre la transgression des bases de données.
Jean Carlo Cuba Yaranga, expert en politique publique, Pérou
Article publié dans le Think Tank CEEEP de l'armée péruvienne.