
Ces derniers mois, les nouvelles concernant l'intelligence artificielle ont été assez inquiétantes, à tel point qu'elles ressemblent à un avertissement selon lequel le loup vient dévorer les agneaux. Cette technologie est-elle le loup ?
L'émergence de divers systèmes d'intelligence artificielle tels que ChatGPT, GenAI ou GenerativeAI, Dall-E ou GPT a incité des centaines de créateurs d'art et de contenu, ainsi que de nombreux prestataires de services, à mettre en garde contre le danger de tous ces outils dans leur utilisation massive.
Dans quelques années encore, ils anticipent la fermeture de milliers d'emplois et même d'avoir comme prochain concurrent, dans leur travail créatif, un système qui crée des techniques pour produire du contenu original.
Par exemple, que le prochain best-seller des librairies ne sera pas un livre écrit par Mario Vargas Llosa, mais par l'un de ces systèmes conçus par des experts en technologie d'une entreprise de San Francisco, en Californie, ou de Pékin, en Chine.
Ou que l'ouverture d'une galerie d'art n'inclura pas un tableau de Dalí, Picasso, Van Gogh, Rembrandt ou Goya, mais l'œuvre peinte par un système d'intelligence artificielle.
Qu'il y aura des créations et des services qui finiront par s'effondrer parce qu'un logiciel le fera parfaitement et, en plus, épargnera à l'employeur le coût d'avoir plusieurs travailleurs embauchés. L'avenir d'un média pourrait se retrouver entre les mains d'un système qui compterait les IA qui distingueraient les nouvelles de l'orientation idéologique, politique ou religieuse avec laquelle elles ont été conçues auparavant.
Même un outil technologique façonnera les travaux scolaires et les dissertations, ainsi que les thèses nécessaires à l'obtention d'un diplôme professionnel, et ce de manière si irréprochable qu'il ne sera pas possible de prouver le plagiat ou le fait qu'il a été écrit par un logiciel et non par un être humain.
Il y a quelques jours, au Capitole, la voix de Samuel Altman, PDG d'OpenAI, résonnait dans les oreilles des sénateurs qui écoutaient avidement la voix experte de ce millénaire qui a été l'un des créateurs les plus précoces de systèmes d'IA. Son talent est tel qu'aujourd'hui, à 38 ans, il est non seulement millionnaire mais a été distingué à plusieurs reprises par Forbes.
En 2015, avec Elon Musk, Jessica Livingston et Peter Thiel, il fonde OpenAI, une entreprise dédiée à la recherche technologique dont la création a donné naissance à ChatGPT.
C'est ce prototype de bot développé en 2022 qui a été l'une des clés du soleil laissant entrevoir la capacité infinie des programmes d'IA ; un potentiel qui, comme toute chose, y compris la science elle-même, a ses côtés positifs et sombres.
Devant une commission sénatoriale, Altman a expliqué les mérites de ChatGPT en tant que "prototype de chatbot" spécialisé dans le dialogue et doté d'une large capacité linguistique lui permettant de tenir une ou des centaines de conversations avec un être humain et donc d'interagir avec lui.
Seulement six mois après son lancement, ce service comptait déjà plus d'un million d'utilisateurs et ses créateurs attendent que son expansion se poursuive pour faire payer ses services. Jusqu'à présent, il a été interdit dans des pays tels que l'Iran, la Chine, la Russie et plusieurs régions d'Afrique, et l'Union européenne (UE) devra discuter de l'impact de cette technologie.
Altman, qui connaît bien la technologie et son potentiel, a appelé les législateurs américains à structurer une réglementation pionnière de l'intelligence artificielle aux États-Unis.
"Je pense que si cette technologie va mal, elle peut aller très mal. Et nous voulons nous exprimer à ce sujet. Nous voulons travailler avec le gouvernement pour éviter que cela ne se produise", a déclaré le technologue.
Selon le New York Times, lors du premier témoignage de Altman devant le Congrès, l'entrepreneur a imploré les législateurs de réglementer l'IA. Les membres de la commission ont toutefois fait preuve d'une compréhension naissante de la technologie, mais n'ont pas été déstabilisés par les dommages potentiels de l'IA sur le marché de l'emploi, ainsi que sur les médias sociaux pour générer certains contenus qui finissent par manipuler les masses. Il ne s'agit plus seulement de "fake news".
Un étudiant de Chicago a demandé à ChatGPT de lui écrire un poème pour son devoir de littérature et le résultat a été étonnant grâce à la capacité créative de ce système d'intelligence artificielle.
Guerre technologique
Dans le domaine de la maîtrise et de la connaissance de l'IA, une guerre intense se déroule entre les États-Unis et la Chine. Il s'agit d'une course effrénée, comme ce fut le cas autrefois entre les États-Unis et la Russie dans le domaine spatial, pour savoir quel pays serait le premier à obtenir la technologie permettant de lancer une capsule spatiale hors de l'orbite terrestre. Le 4 octobre 1957, l'URSS de l'époque a lancé Spoutnik I dans l'espace, qui a pu atteindre l'orbite terrestre, et le 3 novembre de la même année, l'URSS a placé la chienne Laika dans Spoutnik 2, le premier être vivant à voyager dans l'espace.
Le même scénario de concurrence féroce se déroule avec l'IA, et si aux États-Unis est né ChatGPT, à Pékin, le chinois Baidu a présenté Ernie avec les mêmes caractéristiques que la version américaine.
Alors que le président chinois Xi Jinping n'a pas exprimé publiquement de craintes quant à l'impact de l'IA dans son pays, dans le cas des États-Unis, le président Joe Biden a récemment déclaré aux entrepreneurs technologiques que l'IA "a un potentiel et un danger énormes" et n'a pas exclu de faire pression en faveur d'une réglementation.
Le sénateur Chris Coons, démocrate du Delaware, a fait remarquer à cette occasion que les Chinois créent une IA qui "renforce les valeurs fondamentales du Parti communiste chinois et du système chinois" et a déclaré qu'il y aurait un endoctrinement imminent.
En effet, Altman et d'autres technologues reprochent aux législateurs de ne pas comprendre ce qu'est l'IA et de la confondre uniquement avec l'utilisation des médias sociaux.
"La technologie que mon entreprise met en œuvre peut détruire certains emplois, mais elle en crée aussi de nouveaux, car elle est aussi une opportunité", a déclaré Altman aux législateurs du Capitole.
Christina Montgomery, responsable de la protection de la vie privée et de la confiance chez IBM, et Gary Marcus, professeur et critique fréquent de la technologie de l'intelligence artificielle, ont également pris la parole lors de l'audition. Marcus et Altman ont proposé la création d'une agence qui délivrerait des licences pour le développement de modèles d'intelligence artificielle à grande échelle, assorties de règles de sécurité et d'une série de tests afin que les systèmes et modèles d'intelligence artificielle créés satisfassent à ces normes.
"Nous pensons que les avantages des outils que nous avons déployés jusqu'à présent l'emportent largement sur les risques, mais garantir leur sécurité est vital pour notre travail", a déclaré Altman.
Richard Blumenthal, sénateur démocrate du Connecticut et président de la sous-commission sénatoriale, a reconnu lors de la réunion que le Congrès n'était pas parvenu à suivre l'évolution des réglementations et de la surveillance dans le domaine des nouvelles technologies.
Le Washington Post a révélé que les membres de la sous-commission ont proposé la création d'une agence indépendante chargée de superviser l'IA, ainsi que des règles obligeant les entreprises à divulguer le fonctionnement de leurs modèles et les ensembles de données utilisés. En outre, des règles antitrust, afin d'empêcher des entreprises comme Microsoft et Google de dominer le marché.
Pas si dangereux
L'IA finira-t-elle par supplanter l'homme, le dépassera-t-elle intellectuellement, représente-t-elle une menace publique, voire existentielle ? N'échappant pas à cette controverse, Noam Chomsky, l'un des plus brillants intellectuels, a publié dans le New York Times un article intitulé " La fausse promesse de ChatGPT " et s'est interrogé sur toutes les failles du mécanisme de langage utilisé par ce système d'intelligence artificielle.
Le professeur émérite du Massachusetts Institute (MIT) affirme que ChatGPT est avant tout un "plagiat high-tech" qui aura tendance à empêcher l'apprentissage.
Plus d'un tuteur scolaire, d'un directeur d'université et d'un enseignant préviennent que la première victime du ChatGPT sera l'éducation et, avec elle, les apprenants qui perdront leurs compétences en matière d'alphabétisation, de compréhension de la lecture, de synthèse, d'écriture, de recherche et de narration. L'écriture est un moyen de réparer la langue.
Robert Zaretsky, de l'université de Houston, estime que l'essai universitaire est mort depuis des années. Il affirme : "C'est un jeu de dupes dans lequel un étudiant m'envoie un fichier électronique qui, une fois ouvert, déverse un fatras de mots que l'expéditeur présente comme un travail fini. La plupart des bouleversements technologiques laissent dans leur sillage des effets à la fois positifs et négatifs ; si la dissertation de collège est vraiment irrécupérable, peut-être que ChatGPT réussira finalement à la remplacer par quelque chose de plus intéressant".
L'animateur de la chaîne YouTube EduKitchen a demandé à Chomsky : "Pendant des années, divers programmes ont aidé les enseignants à détecter les dissertations plagiées... maintenant, ce sera plus difficile, parce qu'il est plus facile de plagier. Mais c'est la seule contribution à l'éducation à laquelle je peux penser".
Chomsky a également écrit un autre article pour le New York Times en collaboration avec Ian Roberts, professeur de linguistique à l'université de Cambridge, et Jeffrey Watumull, philosophe qui est également responsable de l'IA dans une entreprise technologique.
Tous trois s'interrogent sur le battage médiatique autour de produits comme ChatGPT, à la fois pour les investisseurs qui sont soudainement très excités par la possibilité d'un travail robotique indépendant, et pour les autres qui sont potentiellement inquiets de l'apocalypse robotique imminente.
Selon les auteurs de cet éditorial : "L'esprit humain n'est pas, comme ChatGPT et ses semblables, un moteur statistique lourd de correspondance de modèles, entassant des centaines de téraoctets de données et extrapolant la réponse la plus probable à une conversation ou la réponse la plus probable à une question scientifique. En revanche, l'esprit humain est un système étonnamment efficace et même élégant qui fonctionne sur de petites quantités d'informations ; il ne cherche pas à déduire des corrélations flagrantes entre des points de données, mais à créer des explications".
À 95 ans, Chomsky reste l'un des esprits les plus brillants et les plus lucides. Pour le linguiste et philosophe juif-américain, ces programmes ne peuvent pas expliquer les règles de la syntaxe anglaise, ce qui rend leurs prédictions toujours superficielles et douteuses.
La question est celle du langage et de l'impact que ces systèmes d'IA auront sur lui et sur l'acquisition des connaissances pour l'être humain et les fonctions du cerveau.