Penser l’intelligence artificielle sous le spectre de la philosophie
J’ai la chance, depuis quelques années, de côtoyer de près des grands groupes sur des questions éthiques et ces derniers temps, on m’interpelle beaucoup sur éthique et IA. Je voulais vous partager quelques-unes de mes réflexions sur cette thématique.
Avant toute chose, je pense qu’il est important de revenir sur l’oxymore d’une intelligence qui serait artificielle. En s’inspirant de la lettre de Descartes au marquis de Newcastle du 23 novembre 1646, qui interroge la nature de la pensée humaine, il est possible de proposer cette définition de l’intelligence : elle consiste à être « à propos », i.e. capable de s’adapter à une situation donnée. Je vous conseille de ce fait, de vous pencher sur le test de Turing, intéressant, dans la mesure où il définit l’IA par la capacité de prolonger un mensonge sans que l’interrogateur remarque que la machine a remplacé l’homme.
Ensuite, il me paraît important de définir ce qu’est la peur. Or, Spinoza en produit une analyse très originale : elle montre que si elle est une servitude, elle est moins pire que le plaisir, puisqu’on cherche à la fuir, alors que le plaisir qui nous subjugue, produit notre servitude volontaire.
Enfin, si l’IA interpelle l’éthique, c’est dans la mesure où celle-ci est une instance de veille, qu’il convient de distinguer de la morale : si la morale porte sur le bien et le mal, l’éthique est une prise de conscience, une distance critique, qui sert à éclairer la morale. L’éthicien, c’est l’homme de la vigilance.
Nos sociétés ont tendance à souffrir de ce qu’on appelle « le syndrome de Frankenstein », qui consiste à redouter que la technique se retourne contre son créateur. C’est la structure même du « mythe de Prométhée » dans la mesure où il fait de l’homme le recéleur de la technique, attribut divin, qu’il ne maîtriserait pas vraiment. Cette peur de la technique, qui va expliquer la peur de l’IA, est-elle vraiment une forme de sagesse qu’il s’agirait de cultiver, ou la tentative de faire passer la couardise de la logique du pire, pour une sagesse ?
En prenant l’exemple de dérapages fâcheux de l’IA, comme le deepfake, les dysfonctionnements d’Alexa d’Amazon, et le métavers de Meta, il est possible de mesurer la divergence des intérêts utilisateurs et des intérêts concepteurs des réseaux sociaux. Ils sont conçus pour optimiser le clic, et non la pensée dialectique ou la méthode scientifique. Du coup, on voit comment, en réalignant ces intérêts, on pourrait en faire un outil d’instruction et non de diffusion et de mise sur un même plan des opinions complotistes et des théories scientifiques.
De même, la progression des algorithmes d’IA va impacter et mettre en danger la liberté : sur le modèle du Google-clics, appareil photo qui prend les photos à notre place, on réalise comment la technologie tend non seulement à nous maintenir irrévocablement en enfance, mais encore à nous aliéner. On se trouve alors pris en étau entre une véritable société de surveillance, du fait de l’actualité sociale et politique, et notre légitime aspiration à la liberté en se demandant s’il ne faut pas craindre que la modernité détruise cette dernière.
Bien sûr, il existe des dispositifs de protection des données, car il faut toujours pouvoir surveiller nos gardiens, et des comités d’éthique, qui peuvent effectivement quelque chose : par exemple la loi de RGPD s’adapte à ces progrès des algorithmes d’IA en veillant à protéger nos données et notre image.
Les progrès techniques pourraient-ils permettre que les IA du futur deviennent nos meilleurs alliés ? Serait-il envisageable de les paramétrer pour qu’ils deviennent moraux ? Puisqu’on dénombre des morales du sentiments, et des morales rationnelles et parmi celles-ci des morales conséquentialistes et intentionalistes, il serait possible de voir comment une machine pourrait se rendre capable de décisions et de manifester une déontologie.
L’intelligence artificielle vous intrigue ?
Vous souhaitez organiser une conférence avec un philosophe ?