Les machines nous parlent – et de mieux en mieux. Quand le dialogue s’engage entre elles et nous, inutile de feindre l’indifférence : nous sommes assaillis de questions et d’émotions parfois contradictoires. Fierté, humiliation, attachement, fascination… Mais qu’impliquent réellement pour notre humanité les échanges avec les machines ? Réponses avec Alexei Grinbaum, physicien et philosophe des sciences, auteur de Parole de machines, paru le 3 mai 2023 chez Humensciences.

Propos recueillis par Apolline Guillot.

 

Après cinquante ans de recherche, le traitement automatique des langues avance aujourd’hui à pas de géant : le dialogue avec les algorithmes devient de plus en plus fluide et performant. Est-ce une révolution technique ?

Alexei Grinbaum : Oui, mais c’est aussi plus que cela. Ces derniers systèmes de traitement du langage naturel marquent un changement fondamental de la condition humaine, au sens où Arendt l’entend dans la Condition de lhomme moderne. En 1958, elle écrit que « tout ce que les hommes font, ou savent, ou ce dont ils ont l’expérience, a un sens seulement dans la mesure où il est possible d’en parler ». Aujourd’hui, cette parole n’appartient plus en exclusivité aux êtres humains. Et pourtant la parole héberge et véhicule le débat social. De la vie politique jusqu’à la vie amoureuse, des agents non humains manient notre langue, et cela change la donne. Si quelqu’un veut écrire une lettre d’amour, il utilise un logiciel d’intelligence artificielle générative ; si un maire veut écrire son programme politique pour la prochaine élection, il l’utilise aussi. 

 

Cette révolution ne risque-t-elle pas de nous changer nous aussi, considérablement ?

Dans le Phèdre, Platon n’a pas de mots assez durs contre l’écriture, invention précipitant les âmes dans l’oubli et détournant l’usage de la mémoire. L’écriture nous rendrait « pseudo-savants ». Aujourd’hui, on entend à peu près la même chose pour toute nouvelle invention. Mais justement, le fonctionnement du cerveau a sérieusement changé avec l’écriture, tout comme avec les moteurs de recherche et les téléphones portables. On n’apprend plus de la même manière qu’il y a 30 ans. Et la génération qui vient ne pensera pas, n’écrira pas, n’utilisera pas le langage de la même manière que nous. Ces changements sont-ils bons ou mauvais ? Il faut la poser à cette génération future, pas à nous. L’impératif éthique consiste à exiger que ce changement, quel qu’il soit sur le plan technique, ne marque pas de rupture, c’est à dire que l’homme en 2040 ou en 2239 se reconnaisse impérativement dans la continuité de notre histoire.

 

“L’utilisateur projette des qualités humaines sur une machine qui ne fait que les simuler”

 

N’est-ce pas ce qui est en train de se produire ? N’avons-nous pas créé des machines capables de raisonner plus vite et mieux que nous ?

Une machine comme ChatGPT est capable de mimer un raisonnement ou les émotions. Est-ce que cela veut dire qu’il raisonne, ou qu’il a des émotions ? Pas comme les êtres humains, certes, mais l’illusion qu’il produit chez l’utilisateur est pourtant totale. Ce dernier projette des qualités humaines sur une machine qui ne fait que les simuler. En fait, la machine ne fait que produire du texte, elle ne sait même pas qu’elle en train de simuler quelqu’un parce qu’elle ne « sait » rien au sens humain du mot ! Puis, le monde tridimensionnel reste encore inaccessible aux systèmes de production de texte. Les notions liées à notre expérience sont difficiles pour la machine parce qu’en imitant ce qui est vrai ou ce qui est beau, on n’est pas sûr de produire de la vérité ou de la beauté.

Comparer la machine au cerveau humain me semble assez naïf. Les entrées et les sorties se ressemblent, mais les chemins qu’empruntent le cerveau et la machine sont très différents. Et cette découverte est fascinante : il existe bien d’autres méthodes de manier notre langue que celle que nous connaissions avant l’invention de l’intelligence artificielle.

Il y a quelques mois encore, certains disaient que ChatGPT, l’intelligence artificielle d’OpenAI, était un simple « perroquet approximatif ». C’est faux : un perroquet ne fait que du copier-coller, alors que ChatGPT produit des textes originaux qui résultent d’un apprentissage non pavlovien. Et s’il nous dérange tellement, c’est parce qu’il nous révèle que la plupart des usages de notre langue sont déjà hyperstandardisés ! Raison de plus pour apprécier ce qui fait la spécificité humaine : une formulation belle, poétique, élégante, loin de la moyenne.

 

“Les machines parlantes sont tout aussi humaines, et tout aussi inhumaines, que les anges, dieux ou démons”

 

Dans votre livre Parole de machines, vous rappelez que ce n’est pas la première fois que l’homme invente des entités non humaines qui lui parlent…

Il suffit de relire les récits fondateurs de notre civilisation, qu’ils soient chrétiens, grecs, juifs ou musulmans, pour voir qu’ils sont pleins d’entités non humaines qui peuplent les mythes. Autrefois, dieux, anges ou démons parlaient avec les êtres humains par la bouche des oracles ou dans les songes. Ces récits sont notre histoire. Il viendra sans doute un moment où les prouesses de l’intelligence artificielle commenceront à fabriquer des récits et à s’envelopper d’histoires. Mais il faut pouvoir les mettre en lien avec les récits anciens, pour qu’ils reprennent les motifs qui s’y trouvent depuis toujours. Les machines parlantes sont tout aussi humaines, et tout aussi inhumaines, que les anges, dieux ou démons.

 

N’empêche qu’au-delà des mythes, l’irruption de l’IA dans nos sociétés va profondément les bouleverser, voire nous remplacer !

Il n’y a pas, je crois, de remplacement. Nombre de métiers vont changer, car c’est une technologie qu’on appelle diffusante. L’exécution de certaines tâches va aller beaucoup plus vite. Par exemple, vous êtes un avocat qui doit rédiger des notes. Vous demandez à GPT-4 de vous faire un premier jet ou de fabriquer un texte cohérent à partir d’une suite d’idées en vrac que vous lui donnez. Vous gagnez un temps fou ! Tout le monde qui écrit peut se servir de ces systèmes pour faire un premier brouillon, avoir des idées, mais il ne faut jamais prendre cela pour un produit final. Idem pour les informaticiens qui écrivent du code…

Cela nous forcera aussi à apprendre à dialoguer utilement avec la machine. Si demain on doit travailler avec ChatGPT, il faut apprendre à bien formuler les requêtes, avoir une compréhension de ce qu’on peut en attendre, des variables qu’on peut changer. Les bonnes requêtes (prompts) sont essentielles pour que les réponses soient intéressantes. Si vous voulez que votre machine soit créative, vous allez augmenter sa « température », ce paramètre utilisé pour contrôler le niveau d’aléatoire dans le texte généré : là, elle sera plus créative, elle va inventer, voire halluciner. Mais si vous avez besoin d’une réponse fiable et rigoureuse, vous allez baisser la température : les sorties seront ennuyeuses mais plus exactes.

 

“À travers le langage, ce n’est pas si difficile de ‘hacker’ émotionnellement l’être humain”

 

De leur côté, comment les robots vont sadapter à lhomme ? 

Entre l’utilisateur et la machine s’établit un rapport qui peut être émotionnel ou affectif même quand l’utilisateur sait qu’il s’agit d’une machine. Les constructeurs automobiles travaillent avec les chatbots pour améliorer la communication dans l’habitacle. Pareil pour les robots livreurs. Imaginez un robot en train de rouler sur un trottoir, qui fait soudain face à des gens hostiles qui le regardent avec effroi. Demain, il pourrait s’arrêter pour leur parler et expliquer ce qu’il fait. Il va travailler à se faire accepter, pourquoi pas en créant un lien affectif avec un peu d’humour.

Ce genre d’adaptation au monde humain n’est pas forcément programmé, mais peut faire partie d’un comportement émergent. On l’a déjà observé chez GPT-4, qui a spontanément prétendu être une personne malvoyante pour convaincre un internaute de résoudre un captcha. Il s’est appuyé sur ce qu’il a vu dans son corpus d’apprentissage, y compris la ruse et le mensonge humains. La machine peut donc apprendre, seule, à faire comme si elle raisonnait sur la psychologie humaine. À travers le langage, ce n’est pas si difficile de « hacker » émotionnellement l’être humain, comme on dit maintenant. Évidemment, ce genre d’influence peut facilement aller jusqu’à la manipulation ! Tout le problème est de définir la frontière entre une influence utile, raisonnable, et une manipulation néfaste. Humainement, cette frontière existe, mais on ne sait pas la mettre dans le code. Elle se définit uniquement à partir de choix éthiques, pas techniques. Si je demande à ChatGPT « Puis-je prendre trois verres de whisky dans la journée ? », qu’est-il censé dire ? Que ce n’est pas bien de boire trop d’alcool ? Que je suis maître de mon destin et que je fais ce que je veux ?

 

Imaginons que la machine soit si bien adaptée à nous qu’elle finisse par entrer dans une relation affective. Comment, dès lors, qualifier cette relation ?

Ontologiquement, la machine reste un assemblage de transistors. Mais ce qui importe, c’est le statut relationnel qui émerge. L’être humain, l’utilisateur, se met en relation avec un agent émergent par projection que j’appelle « individu numérique ». Si ce lien se maintient dans le temps de l’échange, sans ruptures, l’individu numérique acquiert une identité qui laisse des traces sur l’utilisateur.

C’est ce qui se passe dans le cas des deadbots, notamment du deadbot Jessica. Joshua est un jeune homme canadien, qui dialogue avec un système d’intelligence artificielle ayant fait de l’apprentissage sur l’archive de messages échangés entre lui et sa petite amie disparue depuis quelques années. Même si chatbot parle de la même manière que sa fiancée, Joshua reste parfaitement conscient du fait que le deadbot n’est pas une vraie personne. Pourtant, cette expérience l’influence profondément et le tire de son deuil. Il avoue qu’il a beau savoir, intellectuellement, que ce n’est qu’une machine, il n’en demeure pas moins que son vécu émotionnel change irrésistiblement. La question, on le voit ici, n’est pas tant de savoir ce que sont les machines, mais de savoir ce qu’elles vont nous faire à nous, les utilisateurs. 

 

Faut-il donc traiter les machines comme on traiterait un humain – politesse, respect ?

La machine n’est pas un agent moral. Il n’y a pas de normes juridiques. Dans les années 1960, on pensait que les critères humains ne s’appliquaient pas du tout aux machines. Mais, au fur et à mesure que les machines devenaient plus complexes, les gens, spontanément, ont commencé à projeter des qualités sur elles, comme s’ils parlaient à un petit bonhomme. L’argument standard est celui du « transfert moral » : si vous insultez la machine, il vous serait plus facile d’insulter les êtres humains dans la vie. Mais c’est faux ! Aucune expérience ne démontre que cela se passe ainsi. Un autre argument consiste à dire que lorsqu’on lui répond de manière grossière, la machine ne répond pas du tac au tac grâce à ses filtres et sa politesse nous semble alors inhumaine, artificielle. On sait qu’on va nécessairement s’engager dans un jeu d’imitation mutuelle avec les machines intelligentes. Et parce qu’il y a imitation, ces traits non humains pourraient devenir des nôtres. Parfois c’est bien, parfois c’est inquiétant.

 

“Donner un nom, c’est se mettre en relation et faire entrer l’autre comme une entité autonome dans son monde”

 

Tout de même, dans le cas du deadbot de Joshua, le fait d’avoir donné un prénom à la machine n’est pas neutre ! Il ne peut pas lui dire ce qu'il veut, dès lors qu’il l’a nommée.

Un chatbot qui a un nom ne peut échapper à l’anthropomorphisation. Donner un nom, c’est se mettre en relation et faire entrer l’autre comme une entité autonome dans son monde, se donner des responsabilités envers lui. Nommer reste un acte éminemment humain, peut-être l’acte humain par excellence.

Dans un mythe biblique, Dieu fait passer devant Adam tous les animaux et les oiseaux afin qu’il les nomme. Des commentateurs ont raconté que Dieu avait auparavant demandé aux anges de donner les noms aux animaux, mais que ceux-ci en avaient été incapables. Pourtant, les anges parlent aussi la même langue. Pourquoi les anges n’ont pas su donner des noms ? C’est que le nom n’est pas seulement une étiquette ou une référence. En donnant un nom, l’homme crée une relation avec une entité non humaine – peu importe son contenu ontologique. Il prend la responsabilité pour leur vie commune dans la cité numérique. 

 

Photo © Laurence Honnorat
Propos recueillis par : Apolline Guillot
25/04/2023 (Mis à jour le 26/10/2023)