Le défi caché de l'apprentissage automatique de l'IA

La poignée de grandes entreprises technologiques et leurs satellites ont peut-être dépensé jusqu'à 1 000 milliards de dollars dans l'apprentissage automatique et l'infrastructure des centres de données pour remplir leurs systèmes d'intelligence artificielle de milliards d'informations provenant de sources publiques et privées sur l'internet.
Ces entreprises - dont Amazon, Google, Meta, Microsoft et OpenAI - sont riches et ont enrichi leurs créateurs de manière inégalée grâce aux technologies de l'information. Leur défi est de conserver ce qu'elles ont aujourd'hui et d'assurer leur avenir en profitant de la prochaine grande opportunité : L'IA.
L'une des conséquences malheureuses de cette course effrénée pour obtenir la franchise est que les grandes entreprises technologiques - et je l'ai confirmé auprès de certains cadres supérieurs - ont précipité la mise sur le marché de nouveaux produits avant qu'ils ne soient prêts.
Les coureurs pensent qu'il vaut mieux être embarrassé par des hallucinations (erreurs) que de laisser un concurrent prendre de l'avance.
Le problème, c'est que si l'une des entreprises - et Google est souvent citée - n'est pas dans le peloton de tête, elle risque d'échouer. Cela peut arriver : Souvenez-vous de « MySpace ».
L'inconvénient de cette course effrénée est que les systèmes de sécurité ne sont pas en place ou efficaces - un danger qui pourrait entraîner une catastrophe opérationnelle, notamment en ce qui concerne les « portes dérobées ».
Selon Derek Reveron et John Savage, deux spécialistes du monde de l'intelligence artificielle, l'urgence de la rapidité du marché au détriment des conséquences dangereuses présente un danger évident.
Savage est le professeur émérite An Wang d'informatique à Brown, et Reveron est président du département des affaires de sécurité nationale au Naval War College de Newport, dans le Rhode Island.
Reveron et Savage ont tiré la sonnette d'alarme sur les portes dérobées, d'abord dans leur livre « Security in the Cyber Age : An Introduction to Policy and Technology », publié par Cambridge University Press au début de l'année, puis dans un article de Binding Hook, un site web britannique consacré à la cybersécurité et à l'IA.
« Les systèmes d'IA sont des réseaux neuronaux entraînés, et non des programmes informatiques. Un réseau neuronal comporte de nombreux neurones artificiels avec des paramètres sur les entrées des neurones qui sont ajustés (formés) pour obtenir une correspondance étroite entre les sorties réelles et les sorties souhaitées. Les entrées (stimuli) et les réponses souhaitées en sortie constituent un ensemble d'apprentissage, et le processus d'apprentissage d'un réseau neuronal est appelé apprentissage automatique », écrivent les coauteurs.
Les portes dérobées ont d'abord été développées par les compagnies de téléphone pour aider le gouvernement dans les affaires criminelles ou de sécurité nationale. C'était avant l'IA.
M. Savage m'a expliqué que les portes dérobées constituent une grave menace car elles permettent à des acteurs malveillants d'insérer des informations malveillantes - commandes ou instructions - dans les ordinateurs en général et des portes dérobées dans les systèmes d'intelligence artificielle basés sur l'apprentissage automatique en particulier. Certaines portes dérobées peuvent être indétectables et capables d'infliger de graves dommages.
M. Savage s'inquiète particulièrement de l'utilisation prématurée de l'IA par les militaires, qui rendrait la nation plus vulnérable au lieu de la protéger.
Il a cité l'exemple d'une arme tirée par un drone volant sous guidage IA aux côtés d'un avion de chasse piloté, où l'arme tirée par le drone pourrait être dirigée pour faire demi-tour et revenir détruire l'avion piloté. Extrapolons cela au champ de bataille ou à un bombardement aérien.
M. Savage indique que des chercheurs ont récemment montré que des portes dérobées indétectables pouvaient être insérées dans des systèmes d'IA pendant le processus de formation, ce qui constitue un nouveau risque de cybersécurité extrêmement grave et largement sous-estimé.
Le risque est d'autant plus grand que l'introduction de milliards de mots dans les systèmes d'apprentissage automatique des grandes entreprises technologiques se fait désormais dans des pays à bas salaires. C'est ce qu'a montré un épisode récent de l'émission « 60 Minutes » sur des travailleurs kenyans qui gagnent 2 dollars de l'heure pour alimenter en données les systèmes d'apprentissage automatique des entreprises technologiques américaines.
Les mauvais acteurs peuvent s'attaquer à l'IA américaine en insérant des informations erronées et dangereuses au Kenya ou dans tout autre pays à bas salaires. Bien entendu, ils peuvent également lancer des attaques par des portes dérobées, lorsque l'IA est utilisée pour écrire du code et que le contrôle de ce code est perdu.
Dans leur article « Binding Hook », Reveron et Savage soulèvent un point essentiel à propos de l'IA. Il ne s'agit pas simplement d'un autre système informatique plus avancé. Elle est fondamentalement différente et moins gérable par ses maîtres humains. Il manque une théorie sous-jacente pour expliquer son comportement anormal, ce qui explique pourquoi les spécialistes de l'IA qui forment les systèmes d'apprentissage automatique ne peuvent pas expliquer ce comportement.
Le déploiement d'une technologie présentant de graves lacunes est toujours risqué tant qu'un moyen de les compenser n'a pas été découvert. Les problèmes sont inévitables.
Sur Twitter : @llewellynking2
Llewellyn King est producteur exécutif et animateur de « White House Chronicle » sur PBS.