Education populaire & Transformation sociale !
Offre Civile de Réflexion
Accueil du siteThèmesChamps scientifique
Dans Le Monde du 12-7-2018.
Robot, mon amour / Les robots vont modifier la psychologie humaine.
Catherine Vincent / Serge Tisseron.
dimanche 15 juillet 2018
publié par Christian Maurel

On a beaucoup accusé les "matérialistes" dont Marx, de "technologisme", c’est-à-dire d’aller chercher, pour l’essentiel, l’explication des grandes transformations historiques dans le développement technologique touchant prioritairement les rapports de travail et de production. Ce que nous publions ici ne confirme-t-il pas cette vision scientiste et technologique de l’Histoire au point de devoir parler d’hypermodernité ou de surmodernité plutôt que de postmodernité ?

Mais, il y a une différence importante que nous avons mise en évidence dans d’autres écrits, notamment sur ce site : les Nouvelles Technologies de l’Information et de la Communication, et l’Intelligence Artificielle "impactent" (pour employer un mot barbare très à la mode) d’emblée l’ensemble des rapports sociaux -et pas seulement les rapports de production et de travail - jusqu’à transformer les individus eux mêmes. Nous sommes sans doute encore dans une période de transition. Les jeunes, notamment, sont sous l’emprise de cette hypermodernité bien avant d’entrer dans le monde du travail, si bien qu’il est nécessaire de se demander si les technologies qu’ils manipulent et qui les manipulent ne sont pas les meilleurs atouts d’une adaptation à des modes de travail et des relations au travail en transformation permanente dont l’hyperlibéralisme actuel tire de plus en plus profit. A moins qu’il existe toujours une "part idéelle du réel" (pour parler comme Maurice Gaudelier) qui nous permette, de manière à la fois critique et pratique, de prendre conscience de ce qui se joue, de nous conduire sur un chemin d’émancipation ouvrant sur des capacités d’agir nous permettant d’écrire une autre page de l’Histoire. Dans tous les cas, celui de la "servitude volontaire" à la science et à la technique, comme dans celui de son utilisation critique alternative, ce sont la définition et la création de nouvelles "figures de l’Homme" qui sont en jeu. A nous de choisir, dans la conscience la plus claire qui soit.

Christian Maurel, corédacteurs du site.

Robot mon amour.

Quelles réactions aurons-nous vis-à-vis des robots sociaux, conçus pour nous sembler doués d’émotions et d’empathie  ? Ils vont bouleverser notre manière d’interagir avec autrui.

Il va falloir vous y faire : de plus en plus, et de manière plus fluide et peut-être plus captivante qu’avec nombre d’interlocuteurs humains, vous allez converser avec des machines. Elles ne se contenteront plus de vous rendre toutes sortes de services : elles vous conseilleront, vous rassureront, vous feront rire, seront attentives à vous. Bien sûr, vous allez vous y attacher. Vous allez vous inquiéter pour elles, être triste quand elles seront cassées. Certains ne pourront plus s’en passer. Et il ne s’agit pas là d’un futur lointain ! Les assistants virtuels sont déjà dans nos ­téléphones, les robots domestiques dans nos foyers. Et tous, demain, seront infiniment plus performants qu’aujourd’hui. Entre les robots et nous, les affinités particulières ne font que commencer.

Faut-il s’en inquiéter ? S’en réjouir ? Question de génération, sans doute. Et de culture. Dans l’imaginaire occidental, le mot « robot » apparaît pour la première fois en 1920 dans une pièce de théâtre du Tchèque Karel Capek, R.U.R. (Rossum’s Universal Robots), et, tout de suite, la tragédie est au rendez-vous. D’ap­parence similaire à celle des humains, les androïdes créés par le démiurge Rossum remplissent les tâches qui étaient les nôtres – jusqu’au jour où ils se révoltent et détruisent la race humaine. D’alliés, ils sont devenus ennemis, selon un schéma catastrophiste qui a nourri par la suite quantité de romans et de films d’anticipation. « Absorbeur d’angoisse »

Mais d’autres ressorts narratifs sont possibles. Au Japon, par exemple, où une philosophie animiste toujours prégnante fait imaginer une « âme » à tout ce qui semble doté d’un mouvement autonome, les robots sont perçus comme capables de faciliter notre croissance morale et notre maturation psychologique. La culture populaire les a adoptés depuis longtemps, et Astro, le petit robot, série de shonen mangas d’Osamu Tezuka publiée entre 1952 et 1968, y est devenu un symbole national.

Au Japon, « les robots autonomes sont ­conçus non seulement comme étant utiles, mais aussi comme étant bons et serviables, et même, comme Astro Boy, des héros et des ­sauveurs », précisent Paul Dumouchel et Luisa Damiano dans leur ouvrage Vivre avec les ­robots (Seuil, 2016). La compagnie des ­machines intelligentes est-elle dangereuse et susceptible de nous induire en erreur ? Est-elle au contraire bénéfique, l’occasion pour l’humanité d’une coévolution avec de nouveaux partenaires sociaux ? Quoi qu’il en soit, le bouleversement est majeur. Une résidente interagit avec le robot Zora, à l’Ehpad Les balcons de Tivoli, près de Bordeaux.

Sans doute n’aurait-il pas surpris l’écrivain américano-russe Isaac Asimov (1920-1992), qui s’imposa par son « Cycle des robots » comme un pilier du roman de science-fiction. Dès les années 1940, l’auteur des fameuses « lois de la robotique », destinées à protéger la machine comme ses utilisateurs, réfutait l’idée selon laquelle un robot doit nécessai­rement se révolter contre son créateur – ce qu’il appelait « le complexe de Frankenstein » en référence au roman de Mary Shelley (1818).

Certains des personnages arti­ficiels d’Asimov revêtent une humanité presque totale, et il a développé l’un des aspects les plus troublants de cette co­évolution entre l’homme et la machine : les liens affectifs qui se créent du premier vers la seconde. Un sentiment que les concepteurs de robots sociaux font tout pour promouvoir, en programmant chez ces derniers des comportements d’empathie artificielle. Une résidente interagit avec le robot Zora, à l’Ehpad Les balcons de Tivoli, près de Bordeaux.

Des exemples ? Yotaro, bébé robot japonais programmé pour être aussi capricieux qu’un vrai, a été conçu en 2010 pour relancer la natalité au Japon (efficacité non démontrée à ce jour). Nao, robot humanoïde créé en France il y a un peu plus de dix ans, est aujourd’hui prisé par les institutions qui prennent en charge les enfants et les adolescents autistes : il les invite à l’imiter, à nommer les parties de son corps et à reconnaître les émotions qu’il manifeste.

Pepper, autre humanoïde au design « réfléchi pour que l’interaction avec ­l’humain puisse se faire de la manière la plus naturelle et intuitive possible », selon ses concepteurs, interprète nos sourires, froncements de sourcils et intonations de voix : il « comprend » ainsi nos émotions et répond en conséquence. Paro, peluche robotisée en forme de bébé phoque faisant office d’« absorbeur d’angoisse » auprès des malades d’Alzheimer, se blottit contre ceux qui le caressent longtemps, comme un chat… Manipulation affective

Et n’allez pas croire que cette manipulation affective, à laquelle nous consentirons de manière croissante et le plus souvent de bon gré, ne proviendra que de machines « incarnées », faites de métal et de peau synthétique ! Les agents virtuels de conversation de nos smartphones et ordinateurs ne seront pas en reste. Certes, si vous demandez aujourd’hui à votre assistant Apple : « Siri, as-tu déjà été amoureux ? », sa réponse reste prudente : « Les émotions humaines complexes provoquent chez moi une surcharge générant des erreurs très ambiguës. » Mais demain ?

Dans Her, le troublant film de fiction de Spike Jonze sorti en 2014, on ne s’étonne guère que Joachin Phoenix tombe amoureux de Samantha, l’intelligence artificielle qui régit son portable. Mais on ne s’étonne pas non plus que ce sentiment soit réciproque, tant ce logiciel sophistiqué, dont on n’entend que la voix, est présenté comme une véritable conscience autonome. « Maintenant, on sait aimer », dit Samantha à la fin du film… et qui pourrait ­affirmer que cela n’adviendra pas ? Que les frontières entre machines et hommes resteront toujours nettes et tranchées ?

Face à cette perspective inédite, deux réactions sont possibles : l’une joyeuse et ludique façon Japon, l’autre inquiète et critique façon Occident. Côté clair, on peut espérer que notre cohabitation croissante enrichira notre rapport au monde et à nous-mêmes. La psychologie, qui a déjà appris à décrypter le comportement des enfants, puis des animaux, trouvera avec la robotique un nouveau domaine à explorer.

Les cobots (robots collaboratifs) avec lesquels nous vivrons ne seront ni esclaves ni maîtres, et nous tisserons avec eux des relations originales, faites de services réciproques. Pour ces machines dotées d’empathie et d’émotions artificielles, nous développerons une branche nouvelle de l’éthique afin de définir les droits des robots – mais aussi les droits des humains face à eux. Et nous les pleurerons lorsqu’ils partiront à la casse, comme nous pleurons aujourd’hui à la mort de nos animaux familiers.

Rééditable indéfiniment

Côté obscur, l’avenir est plus préoccupant. Il peut se résumer en une phrase : en devenant amis avec les robots, nous perdrons de notre humanité. Dans son essai sur L’Homme simplifié (Fayard, 2012), le philosophe spécialiste des sciences Jean-Michel Besnier fustige « l’aberration consistant à déléguer sans limites aux machines le soin de régler nos relations et nos rapports avec le monde ».

A ses yeux, le robot est « un révélateur de la simplification de plus en plus répandue des relations humaines – une simplification brutale qu’il faudrait déclarer déshumanisante puisqu’elle s’apparen­terait à l’échange que nous établissons avec l’animal et la machine ».

Même inquiétude chez la psychologue et anthropologue amé­ricaine Sherry Turkle, qui craint dans Seuls ­ensemble (L’Echappée, 2015) que notre aliénation à la machine nous condamne à la solitude et à l’oubli des valeurs fondamentales de notre humanité. Car le robot, rééditable indéfiniment à l’usine, ne mourra jamais. Ces relations artificielles permettraient ainsi de créer « un attachement sans risque », nous éloignant de ce qui caractérise les relations humaines : le manque, la séparation et la mort.

Entre les robots et nous, quelle histoire va s’écrire ? Seule certitude : ces nouveaux compagnons suscitent un nombre considérable de fantasmes. Or, comme le souligne le psychiatre Serge Tisseron, les fantasmes sont à prendre au sérieux, car leurs conséquences peuvent modifier la réalité. C’est pourquoi il est si important, dès aujourd’hui, de comprendre nos attentes et nos réactions à l’égard des machines intelligentes avec lesquelles nous vivrons demain.

Catherine Vincent.

« La compagnie ne se définira plus seulement par la présence d’un humain, mais aussi d’une machine », selon Serge Tisseron .

Serge Tisseron est psychiatre, docteur en psychologie et, depuis 2015, membre de l’Académie des technologies. Il a cofondé, en 2013, l’Institut pour l’étude des relations homme/robots (IERHR), dont il est toujours un membre actif. Serge Tisseron participera à deux rencontres dans le cadre du festival international de journalisme de Couthures-sur-Garonne : vendredi 13 juillet, à 16 heures, sur « Peut-on tout faire avec un sexbot ? » et samedi 14 juillet, à 12 heures, sur « Fausses émotions, vrais sentiments ».

Comment l’omniprésence de machines dotées d’une intelligence artificielle (IA) dans notre quotidien va-t-elle modifier le psychisme humain ?

Les robots vont modifier la psychologie ­humaine autant que les progrès de l’alimentation et de la médecine ont modifié nos corps. Notre taille et notre corpulence ont changé, notre résistance aux maladies et à la douleur aussi, mais nous ne nous en rendons pas compte car ces changements nous sont devenus naturels. Il en sera de même avec les ­machines intelligentes, qui vont bouleverser non seulement notre quotidien mais aussi notre manière d’être au monde.

Quatre domaines, au moins, seront profondément modifiés. D’abord, notre capacité à différer la satisfaction de nos désirs. Le téléphone, puis le mail, ont déjà commencé à altérer notre capacité de résistance à l’attente relationnelle : avec la livraison quasi instantanée par drone, nous allons aussi devenir intolérants à l’attente des objets. Le degré suivant sera probablement l’intolérance à nos attentes de reconnaissance, car nos robots de proximité pourront nous gratifier de quantité de félicitations et gentillesses. Dès lors, serons-nous capables de supporter que la société humaine qui nous entoure soit moins aimable avec nous ? Aurons-nous seulement envie de continuer à la fréquenter ?

Le deuxième changement concerne le rapport à la solitude et au discours intérieur. Avec nos « chatbots »[« agents conversationnels »], nous allons développer une tendance à nous raconter en permanence. Contrairement à la plupart des humains, ces machines nous ­feront constamment rebondir par des questions, des plaisanteries et des gentillesses. Pour une raison simple : la capture de nos données personnelles…

Mais, du coup, la ­notion de solitude changera : la compagnie ne se définira plus seulement par la présence d’un humain, mais aussi d’une machine. Que deviendra la possibilité de se tenir à soi-même un discours intérieur, sans interlocuteur, lorsque nous serons habitués à en avoir un à demeure, prêt à nous écouter aussi longtemps que nous le voudrons ?

Les deux autres domaines dans lesquels l’IA va modifier notre psychisme sont notre ­mémoire et notre relation à l’espace. Demain, notre smartphone ne sera pas seulement en mesure de stocker quantité de nos données personnelles, il pourra les classer à notre place, participant ainsi en permanence à la construction de notre biographie.

Quant aux outils de géolocalisation, ils nous permettront bientôt de nous déplacer dans l’espace sans en avoir la moindre compréhension. Si la téléportation, aujourd’hui banale dans les jeux vidéo, existe un jour dans le monde réel, elle sera perçue comme totalement naturelle, car nous avons déjà perdu la représentation des espaces intermédiaires entre le point dont nous partons et le point où nous arrivons !

Les robots vont-ils obliger l’homme à redéfinir l’idée qu’il se fait de lui-même ?

Dans toutes les technologies inventées jusqu’alors, les objets étaient à mon service : je les mettais en route quand j’en avais besoin, comme un chef d’orchestre. Ce qui sera nouveau avec les objets dotés d’IA, c’est qu’ils pourront m’interpeller et me proposer leurs services comme des partenaires à part ­entière. Lorsque je rentrerai dans ma voiture autonome – Ford prévoit sa commercialisation pour 2021 –, je serai accueilli par une voix couplée à une petite caméra, qui me dira par exemple : « A voir ton visage ce matin, j’ai ­l’impression que tu as mal dormi ! »

Si j’ai oublié mon parapluie avant de sortir, ce ne sera pas ma femme ou mes enfants qui me le feront remarquer, mais mon assistant personnel qui me morigénera : « Rappelle-toi, je t’ai dit ce matin qu’il allait pleuvoir ! » Nous ­serons de plus en plus confrontés au fait que les machines ont des compétences que nous n’avons pas, c’est-à-dire à notre incomplétude humaine. Avec le risque d’une certaine honte face à nos insuffisances… Et celui d’une ­confiance de plus en plus aveugle dans leurs capacités. Nous serons ainsi graduellement enfermés dans une dépendance affective croissante vis-à-vis d’elles.

Comment la psychologie peut-elle étudier ces nouveaux phénomènes ?

Il va lui falloir intégrer notre relation aux ­objets comme un élément d’appréciation de la qualité de notre relation au monde – autrement dit de notre santé mentale. On estime aujourd’hui que celle-ci est bonne lorsqu’on a un bon réseau social, une sexualité satisfaisante, un travail à peu près stable…

Il faudra y ajouter la reconnaissance d’une dépendance affective saine aux objets. Elle pourrait en ­effet devenir pathologique, comme c’est le cas pour ceux qui souffrent de manque quand ils sont privés de jeux vidéo, de réseaux sociaux ou d’alcool. Un autre risque étant de glisser du bonheur de l’anthropomorphisme (je projette mes émotions et mes pensées sur un objet ou un animal, mais je sais qu’il s’agit d’une projection) aux illusions de l’animisme (je prête à l’objet en question des capacités cognitives et émotionnelles identiques aux miennes).

Pourquoi les machines intelligentes vont-elles augmenter ce risque d’animisme ?

Parce qu’elles pourront prendre l’initiative de la relation, et aussi parce que leurs fabricants alimenteront l’illusion qu’elles ont des émotions. Cela aggravera le phénomène constaté, il y a plus d’un demi-siècle, par l’informaticien Joseph Weizenbaum. Il avait écrit un programme baptisé Eliza, un précurseur des chatbots destiné à simuler un psychothérapeute dont la méthode consiste à reformuler les propos du patient en se concentrant sur ses réactions émotionnelles. Weizenbaum s’aperçut que certains des étudiants qui l’aidaient dans cette tâche avaient tendance à penser que la machine les comprenait vraiment ! Il eut alors cette phrase, qui devrait être inscrite au fronton de tous les laboratoires de recherche en IA : « Je n’aurais jamais cru qu’un programme aussi simple puisse provoquer chez des gens normaux de tels délires. »

C’est ce qu’on appelle un phénomène de dissonance cognitive : on a beau savoir que ce sont des machines, on ne peut pas s’empêcher de développer avec elles la même relation qu’avec des humains, et croire qu’elles ont des émotions. Plus récemment, l’état-major américain a découvert que certains soldats envoyés en Irak et en Afghanistan s’attachaient de manière déraisonnable à leur robot démineur : les dommages que ­subissait celui-ci les affectaient gravement, et ils voulaient absolument qu’on le leur répare plutôt que de recevoir un robot tout neuf sorti de l’usine. Pendant le combat, certains pouvaient même mettre leur vie en danger pour lui éviter des dommages.

Vous écrivez dans votre dernier ouvrage : « Si j’étais plus jeune, je créerais un ­laboratoire d’étude de la psychologie des IA. » Inventer une psychologie des machines, est-ce vraiment nécessaire ?

J’ai été conforté dans cette évidence par ce qui s’est passé avec Tay, une IA censée jouer le rôle d’une adolescente capable d’interagir sur les réseaux sociaux. Mise au point par Microsoft et « lâchée » sur Twitter en mars 2016, elle avait été programmée pour apprendre par imitation et renforcement. Résultat : après une journée et plus de 96 000 Tweet, des internautes mal intentionnés lui avaient fait tenir des propos misogynes, racistes et antisémites, contraignant Microsoft à suspendre en urgence son compte Twitter. Ce qu’il faut retenir de cette expérience désastreuse, c’est que les machines douées d’apprentissage évolueront différemment au contact de leurs utilisateurs.

S’agit-il à proprement parler de psychologie ? D’une certaine façon, oui. Si l’on s’en tient à ce qui est observable, des machines élevées dans des environnements différents se distingueront les unes des autres par leurs comportements, par leurs propos, voire par les émotions qu’elles simuleront. Il nous faudra donc étudier la manière dont ces IA se transformeront au fil des inter­actions avec les humains. Et aussi au fil de leurs propres interactions !

Car on l’oublie trop souvent, les communautés de robots vont prendre une importance croissante : ils pourront par exemple se connecter la nuit à un serveur central, une sorte d’école du soir qui corrigera leurs ­apprentissages les plus antisociaux. Cette ­interconnexion est le grand défi que nous poseront les objets dotés d’une IA. Les ­informaticiens nous présentent leurs créatures comme des objets « autonomes », mais leur puissance d’apprentissage et de stockage des données sera basée sur leur interconnexion permanente.

Les robots, dites-vous, vont changer notre rapport à la culpabilité. De quelle manière ?

D’une part en nous culpabilisant, de l’autre en nous déculpabilisant. Les machines vont pouvoir nous culpabiliser car nous allons leur donner le droit de nous punir. Reprenons l’exemple de la voiture autonome, dans laquelle le conducteur est censé rester ­disponible en cas de nécessité. Pour s’en assurer, le véhicule vous envoie régulièrement un ­signal, auquel vous devez répondre en mettant la main sur le volant. Si vous ne répondez pas au signal – parce que vous dormez, ou êtes plongé dans un film sur la banquette ­arrière –, que se passe-t-il ? L’algorithme vous sanctionne en vous obligeant, la prochaine fois que vous prendrez votre véhicule, à ­conduire vous-même, à l’ancienne.

Accepterons-nous de telles punitions comme relevant d’un pacte social ? Certains se sentiront-ils persécutés par leur machine ? C’est à ce genre de questions que les psychologues de demain seront confrontés. Mais les machines auront aussi le pouvoir de déculpabiliser, avec le risque de rendre certains ­d’entre nous de plus en plus inhumains. Les « robots tueurs », ces machines militaires programmées pour ouvrir le feu sur telle ou telle cible, présentent déjà ce danger. A partir du moment où l’homme sort de la boucle des décisions, il lui devient plus facile de se déresponsabiliser et d’accepter pour son propre ­intérêt des « dommages collatéraux » plus importants, autrement dit un plus grand nombre de morts civils.

Même si leurs fabricants font tout pour nous en donner l’illusion, les robots n’éprouvent ni émotion ni souffrance. Cela pourrait-il changer un jour ?

Il n’y a aucune raison de donner des émotions aux robots, bien au contraire. Rappelez-vous HAL, dans 2001 l Odyssée de lespace, et son ­fameux « J’ai peur » : c’est à partir de là que tout tourne mal. Mais une grande rupture surviendra probablement quand les robots combineront des matériaux inertes et biologiques. A ce moment-là, les humains eux-mêmes seront probablement transformés. Il n’y aura plus alors que des créatures métissées, des cyborgs. Certains plutôt humains, d’autres plutôt machines, sans que la limite entre les deux soit peut-être très claire.

Propos recueillis par Catherine Vincent.

Ouvrages de Serge Tisseron :

« Petit traité de cyberpsychologie » (Le Pommier, 304 p., 19 €) ; «  Robots, de nouveaux partenaires de soins psychiques  », en codirection avec Frédéric Tordo (Erès, 208 p., 12 €) ; «  Le jour où mon robot m’aimera » (Albin Michel, 2015).


Répondre à cet article