Júlia Pareto : « Le grand risque éthique de l'IA est l'abdication de la liberté humaine »
Les récentes avancées en matière d'intelligence artificielle (IA) suscitent des attentes quant à son potentiel, mais aussi des débats sur ses risques. Júlia Pareto, docteure en philosophie, est l'un des penseurs qui explorent les défis éthiques de cette technologie. Elle travaille à l'Institut universitaire européen de Florence et à l'Institut de robotique et d'informatique industrielle (CSIC-UPC), où elle mène des recherches sur le développement de ces systèmes, notamment dans les domaines social et de la santé.
Le 30 avril, vous avez participé au débat Quels sont les nouveaux défis éthiques et juridiques posés par l'intelligence artificielle ? au Palau Macaya.
Quels sont les principaux défis éthiques posés par l'IA ?
Le grand défi, et je le mettrais au singulier, est de décider pourquoi et dans quel but nous allons développer cette technologie, quelles sont les raisons de son déploiement. Compte tenu des risques de son autonomie technologique, la réflexion se concentre beaucoup sur le « faire » de ces agents artificiels, sur l'adéquation de leur comportement avec certaines valeurs.
Mais on oublie que la première question devrait porter sur leur « être », c'est-à-dire sur la question de leur légitimité, ce qui implique de s'intéresser aux intérêts et aux finalités qu'ils doivent servir. L'éthique a pour tâche de construire le sens. Je pense qu'il est nécessaire de réduire le bruit autour de l'anecdotique et de faire une pause pour réfléchir à ce que nous faisons et où nous allons avec les systèmes d'IA, ce qui conduit inévitablement à revenir à des questions fondamentales de la tradition philosophique.
Dans votre document, vous soulignez également que l'éthique ne doit pas être confondue avec la morale.
L'éthique et la morale sont généralement considérées comme des synonymes, mais, du point de vue de la philosophie, il existe une distinction très importante entre les deux concepts, qui mérite d'être rappelée maintenant que l'éthique est sollicitée dans différents contextes pratiques pour aider à la prise de décision.
Certains experts d'autres disciplines, comme l'ingénierie, s'adressent à des philosophes et attendent d'eux qu'ils leur disent ce qu'ils doivent faire. Cela relève de la morale, qui est liée à des valeurs ou à des normes socialement acceptées. L'éthique réfléchit au pourquoi, et la réponse qu'elle propose est un argument. Cette distinction est intéressante : la morale s'intéresse aux actions, tandis que l'éthique s'intéresse aux raisons. Il s'agit de deux domaines très différents de la vie pratique.
À quoi devrait ressembler une éthique qui prenne en compte la complexité de l'IA ?
Nous devons nous éloigner de l'idée d'une réflexion éthique générale et essayer de la restreindre à des domaines ou activités pratiques spécifiques. La réflexion ne doit pas être décontextualisée du domaine d'action spécifique que la technologie sert, du cadre des objectifs et des valeurs des pratiques pour lesquelles elle est conçue comme un instrument.
Historiquement, nous sommes passés d'une éthique de la Technologie avec un grand « T » à une éthique des technologies spécifiques : éthique de la robotique, des nanotechnologies, de l'informatique... Nous devons maintenant faire un dernier virage herméneutique vers les activités que ces technologies servent afin de ne pas rester dans un discours qui se concentre sur l'instrument sans prêter attention à sa nature téléologiquement subordonnée.
Vous êtes spécialiste de la robotique sociale et d'assistance : comment cette technologie transforme-t-elle les soins ?
Aujourd'hui, la technologie peut accomplir des tâches qui étaient auparavant réservées exclusivement à l'action humaine, parce qu'elles nécessitaient une certaine interaction personnelle.
Nous disposons désormais de systèmes d'IA incarnés qui pourraient assumer des rôles dans le domaine des soins de santé ou de l'éducation qui nécessitent une interaction par la parole et les gestes. La nouveauté ne réside pas dans la médiation technologique de ces activités, mais dans la transformation du caractère de la médiation : étant donné la capacité de ces robots à interagir avec les humains en tant que quasi-autres, nous pouvons les introduire dans la dimension plus nucléaire des pratiques relationnelles telles que les soins.
S'agit-il de remplacer les soignants par des robots ?
Le déploiement européen de la robotique pour les soins s'inscrit dans la continuité du paradigme traditionnel selon lequel les robots sont conçus comme des outils pour des tâches sales, ennuyeuses ou dangereuses.
L'idée est que les robots servent à accroître la qualité des soins, ce qui ne signifie pas qu'ils remplacent les professionnels de la santé, mais qu'ils les soulagent de tâches moins significatives en termes de valeur humaine (parce qu'elles sont lourdes, répétitives et mécaniques, comme l'alimentation, l'aide à l'habillage ou l'assistance à des activités d'exercice physique et cognitif).
Ainsi, ces professionnels pourront se consacrer à ce qui serait la partie la plus intersubjective de la relation de soins. D'un point de vue éthique, cette politique technologique doit s'accompagner d'une réflexion herméneutique sur le soin, sur les valeurs et le pourquoi de cette pratique qui, en fin de compte, a à voir avec la création du monde. Si nous commençons à déléguer des tâches aux machines sans prêter attention à ces questions, nous mettrons en péril notre condition d'êtres autonomes. Je pense que le grand risque éthique de l'IA est l'abdication de la liberté humaine.
Dans quelle mesure les robots de soins pourraient-ils nuire aux personnes dont ils s'occupent ?
Lorsque les gens réfléchissent à la manière dont les robots de soins peuvent nuire aux personnes, ils ont tendance à partir de l'idée que les soins sont une pratique qui n'a qu'une dimension privée, et à se concentrer sur la déshumanisation ou le manque de respect de la dignité humaine que l'interaction avec ces robots peut entraîner.
Mais les soins sont aussi politiques. La philosophie et l'éthique féministes ont beaucoup progressé à cet égard, et il semble que nous fassions marche arrière. Il est important que nous concevions les soins comme quelque chose qui implique des relations de pouvoir et des responsabilités qui doivent être réparties entre les citoyens, et que nous ne concentrions pas notre attention normative et éthique uniquement sur le fait que le robot ne peut pas agir de la même manière qu'un être humain. Il ne faut pas non plus oublier que la technologie joue un rôle constitutif dans ces relations de pouvoir.
Comment pensez-vous que l'IA peut affecter les inégalités sociales ?
Je ne pense pas que l'on puisse tomber dans un certain angélisme et penser que ces technologies se développent dans un contexte totalement dénué d'intérêts économiques ou de concurrence à l'échelle géopolitique.
Nous ne pouvons pas retomber dans les préjugés du passé et oublier que la technologie a une dimension morale et politique, et qu'elle contribue donc à l'organisation sociopolitique de la vie humaine.
C'est pourquoi il est si important que le débat public-privé soit mené, et bien mené, afin que l'adoption de ces outils, souvent largement développés par des entreprises privées, ne soit pas en contradiction avec les valeurs poursuivies du point de vue du service public.
Quel rôle l'éthique doit-elle jouer dans ce scénario de rupture technologique et dans les efforts déployés pour la réguler ?
L'innovation technologique est en avance et le droit s'efforce de la rattraper, mais il est toujours en retard. C'est normal, car le droit doit capter et solidifier ce qui mérite de devenir moral, c'est-à-dire les valeurs que nous voulons défendre.
L'éthique a l'agilité et la flexibilité pour pouvoir réfléchir et aider le droit à fonder ses règles. À partir de l'éthique, nous devons continuer à penser non pas tant à fixer des limites qu'à accompagner de manière proactive, en réfléchissant au type de sociétés, de relations, de structures sociopolitiques que nous allons construire et aider à matérialiser ces concepts. Telle a toujours été la nature de l'éthique.