Texte paru en 2020 dans le livre collectif Jeunes robots et vieilles personnes (Editions Chronique sociale)
Sur un tel sujet, autant assumer dès le départ la nature non artificielle de mon intelligence et le choix d’un texte peu construit, voire risqué, destiné à ouvrir des chemins, à en tester quelques uns, avec pour étapes autant d’hypothèses que d’agacements, de pensées que d’inquiétudes…
Médiateurs de réflexions
Quand on aborde ces questions de nouvelles technologies, on observe d’emblée la tendance à parler de certaines technologies, notamment les robots, plus que d’autres (de télé-assistance, par exemple), quand bien même celles dont on parle ainsi le plus sont les moins répandues.
Ce n’est pas un hasard – elles touchent à quelques points cruciaux :
– elles concernent, dans le vaste domaine du prendre-soin, de l’aide, de l’assistance, les aspects classiquement considérés comme relevant de l’humain (pas beaucoup de discussions sur des dispositifs prothétiques, pourtant technologiquement pointus, type appareils auditifs…) ;
– elles font naître la peur, voire le risque, qu’elles remplacent l’humain ;
– elles nous parlent peut-être moins d’elles-mêmes que de ces humains qu’elles remplaceraient, et de ce qu’est, dans le prendre-soin, l’humanité de ces humains (ou l’inhumanité de ces machines).
– elles placent ainsi la réflexion sur les technologies dans une sorte de paradoxe : plus on parle de la technologie (y compris d’une technologie qui peut être relativement simple, comme par exemple d’un appareil de distribution de médicaments qui à certaines heures ouvre l’accès aux médicaments avec une voix indiquant qu’il est l’heure de les prendre et le rappelant à la personne si elle ne le fait pas…), plus on parle d’autre chose que de la technologie (de ce qui fait que des personnes vont s’attacher à cet appareil, voire vont préférer que ce soit plutôt lui qu’un humain qui remplisse ce rôle).
Bref, remercions la réflexion sur les robots qui nous conduits à parfois plus réfléchir sur les humains que la réflexion sur les humains… ou sur l’éthique.
Il n’arrive quasiment jamais que les médias grand public abordent des questions qui touchent à l’éthique, en lien avec les problématiques plus que taboues de la valeur attribuée à certaines vies, des choix qui pourraient être faits, ou le sont déjà, dans des situations de pénuries de médicaments ou d’accès aux soins (par exemple en cas de pandémies)…
Ces questions sont pourtant régulièrement apparues, ces dernières années, à partir d’un sujet qui fascine les medias et leurs publics : celui des algorithmes utilisés par les voitures dites autonomes (qui va-t-elle sacrifier : le jeune ou le vieux, le conducteur ou les piétons, la femme blanche ou la femme noire, le monsieur en fauteuil ou le jogger, etc. ?). Ici aussi, ces questions sont apparues grâce à ce mouvement un peu paradoxal qui donne l’impression qu’on parle “intelligence artificielle”, “futur”, alors qu’on parle éthique humaine et présent : les algorithmes peuvent calculer plus vite qu’un cerveau humain conscient, mais leur programmation et la procédure décisionnelle qu’ils suivront est celle choisie aujourd’hui par les humains qui pilotent leur conception. Une chose est sûre, en tout cas : ce ne sont pas les mêmes représentations, les mêmes peurs, les mêmes fantasmes, qui naissent en nous si l’on imagine que décidera de notre vie une étrange entité hyper-numérique à naître, ou le PDG de Volkswagen…
Surveiller, ou veiller sur l’autre ?
Si l’on part ainsi du principe que ces (nouvelles) technologies sont des révélatrices de nos valeurs et de nos principes, il nous faudra explorer ce qu’elles disent, sans en avoir l’air, de nos priorités, de nos valeurs, de nos conceptions de leurs usagers…
Un exemple très concret pour lancer ce type d’explorations :
Il existe des systèmes de balise GPS permettant de localiser une personne. Ils sont souvent commercialisés à destination de (proches ou de professionnels de) personnes qui, généralement à cause d’une maladie type Alzheimer, risquent de se perdre et de ne pas savoir rentrer chez elles. La technologie permet à la personne de conserver une liberté d’aller et venir qui lui serait probablement retirée sans. Il n’y aurait donc là plus rien à dire ou à penser…
Sauf que. Sauf qu’une personne atteinte d’une maladie d’Alzheimer qui en est réellement au stade où elle risque fortement de se perdre dans son quartier, en est donc aussi au stade où elle risque : d’être inattentive au moment de traverser ; de ne pas mesurer la dangerosité d’un lieu ; de se faire arnaquer par des personnes mal intentionnées ; etc.
Bref, le dispositif permettra sûrement de retrouver (le corps de) la personne, mais dans quel état ?
Le risque existe donc surtout que de tels dispositifs donnent le sentiment de régler l’ensemble des problèmes liés à une situation, alors qu’ils n’en règlent qu’un seul aspect. Et qu’ils le donnent d’autant plus facilement qu’ils nous offrent la perspective de quelque chose de “merveilleux” : nous soulager du souci de l’autre !
Car soyons honnêtes : le “souci de l’autre”, le souci de l’autre malade et vulnérable, c’est pesant, c’est usant, c’est difficile. Pourquoi est-on si vite tentés par la maison de retraite, par l’usage d’une contention, ou d’une balise GPS, parfois avant même d’en avoir évalué le bénéfice/risque ? Parce que ces choses nous libèrent en partie de devoir penser tout le temps à la personne vulnérable et à ce qui risque de lui arriver.
Mais a-t-on bien mesuré les effets secondaires de ce “plus tu es en sécurité, moins je pense à toi” ? Car qu’est-ce que je vais faire si je veux que l’autre continue à penser à moi (parce que si lui m’oublie alors que déjà je m’oublie moi de plus en plus) ? Et qu’est-ce vont provoquer les dispositifs de surveillance invisibles ou incompréhensibles pour les personnes ? Aurait-on oublié que ce qui est important pour rassurer la personne n’est pas tant qu’on la surveille, mais qu’on veille sur elle… et n’est pas seulement qu’on le fasse mais qu’elle sache, sente, comprenne que nous le faisons !
En libérant les aidants du “veiller sur”, en transformant celui-ci en surveillance, ou en rendant celle-ci invisible, c’est sur l’aidé qu’on pose le poids de l’insoutenable légèreté de l’absence de souci de ses proches.
Sur qu(o)i veille-t-on ?
Au-delà, on ne peut que constater la multiplication de dispositifs censés être rassurants parce qu’ils permettent de savoir où est physiquement la personne, et même de la voir (crèches avec caméras reliées aux ordinateurs des parents ; appartements où des aidants ont installé des caméras…). Mais interrogeons-nous : ce qu’on voit, ce sont les personnes ou leurs corps ? Ce qu’on sait de ce qu’on voit, ce sont des positions, des comportements… Et le reste ? Est-ce qu’on l’imagine d’autant mieux qu’on dispose de ces supports visuels, ou est-ce que ceux-ci, au contraire, nous conduisent à ne plus (ressentir le besoin de) l’imaginer ?
Et notre regard potentiellement permanent sur notre proche, il en sait quoi, lui ? Il en fait quoi ? Il en devient quoi ? Et notre curiosité, ensuite, en face à face : intacte ? superflue ? parcellaire ? Et qu’est-ce qu’il va faire de cette étrange curiosité ?
Beaucoup de questions. Pour notamment souligner à quel point elles sont absentes, toutes ces questions-là, dans l’usage habituels de ces outils qui, si l’on en juge par cette absence, sont essentiellement des outils de surveillance de corps en danger. (Il n’est d’ailleurs pas anodin que beaucoup de ces dispositifs transmettent des images sans le son, ce qui montre que l’essentiel est de permettre de vérifier l’intégrité du corps, quel que soit ce que le propriétaire dudit corps entend ou dit…).
Et donc, plus globalement, mais nous y reviendrons : où, quand, quels espaces pour penser ensemble, et distinguer, dans tout cela, ne serait-ce que les dispositifs qui libèrent (par exemple de la peur de tomber dans le jardin et d’être oubliée) des dispositifs qui aliènent (par exemple en étant tout le temps surveillé), les dispositifs qui rassurent (par exemple de la crainte de se perdre) de ceux qui déshumanisent ?
Qui dit “Je” ?
Explorons quelques autres pistes autour de ce que ces nouvelles technologies pourraient bien nous dire. De notre usage du langage, par exemple ?
Des mots, évidemment, et des notions qu’ils portent. Nous vivons dans des maisons intelligentes, et sommes équipés de voitures intelligentes, de téléphones intelligents (“une caméra qui pense pour vous” est le slogan d’une récente publicité pour un téléphone doté d'”intelligence artificielle”), dans des villes intelligentes (comme Nice, qui se promeut “safe city dotée d’un waze de la sécurité” !) qui ont des caméras intelligentes, des Trafic system intelligents, des procédés d’identification intelligents, des analyses de données intelligentes, des solutions automatisées de planification intelligentes, des gestions des alarmes intelligentes, des poubelles intelligentes (je n’invente rien !), etc[1]. Je ne sais pas vous, mais moi je finis par me sentir un peu bête d’être entouré en permanence de tant d’intelligence…
Et puisqu’on est sur cette dimension du langage, évoquons d’ores et déjà qu’elle est au coeur de la question, que nous aborderons plus loin, du leurre : qu’est-ce que veut dire (le fabricant de) la boîte informatisée qui pour distribuer le médicament dit “je”, dit “vous”, dit “J’espère que vous allez bien… Voici votre médicament.”. Et qu’est-ce que dit de nous le fait qu’on n’éclate pas de rire en entendant ça, rire suivi d’un “c’est ridicule” aussi évident que celui qu’on aurait (j’espère) si l’abattant des wc nous accueillait d’un “bonjour, ça me fait plaisir de te revoir ! “
On en rit, bien sûr.
Mais un rapport de l’Unesco met en garde contre l’omniprésence des voix de femmes des assistants vocaux, qui confortent les préjugés sexistes (les femmes sont là pour demander à quels ordres elles peuvent obéir, et y obéir bien servilement)[2] ; et les fabricants de s’empêtrer face aux parents qui affirment que leurs assistants rendent impolis leurs enfants : faut-il que l’appareil demande aux personnes mineures de dire “s’il-te-plaît” quand ils leur donnent des ordres ou refusent d’y obéir quand ils sont donnés accompagnés d’insultes ?
On en rit, pour ne pas aller jusqu’au bout de certaines questions, et des troublants chemins qu’elles ouvrent. Êtres de langage que nous sommes, sommes-nous bien sûrs qu’on ne signe pas le pacte dès lors qu’on admet qu’une machine, même simple distributeur de cafés, dise “Je” pour nous souhaiter une bonne dégustation. Un pacte qui nous conduirait inéluctablement à finir par trouver plus humain une machine qui dit “je” qu’un humain malade qui ne peut plus le dire ? Et, comme dans tout pacte, fatal équilibre de ce que l’on gagne et de ce que l’on perd, ne sommes-nous pas déjà en train d’enlever à l’humain sans parole (“S’il ne parle pas, est-ce que vraiment il pense encore ?”) ce qu’on donne à la machine parlante (mon “robot a besoin de moi”, mon ordinateur “ne veut pas démarrer”…) ?
On devrait d’ailleurs d’autant moins en rire qu’on peut constater, à travers le langage utilisé, que notre tendance à humaniser le fonctionnement des robots apparaît même sous la plume des chercheurs les plus susceptibles d’être vigilants. Dans le précieux ouvrage dirigé en 2018 par Serge Tisseron et Frédéric Tordo, Robots, de nouveaux partenaires de soins psychiques, qui met pourtant en garde contre les risques d’oublier que les robots sont des machines, on peut, au fil des articles, découvrir que des machines “pensent plus loin que l’homme”, peuvent “veiller sur un humain” ou que le robot Paro “apprécie les remerciements et les félicitations”… Et que penser de la tolérance, y compris des professionnels prudents qui utilisent ces robots comme outils de médiation thérapeutique, pour le vocabulaire que les concepteurs de robots font utiliser à leurs machines, vocabulaire visant précisément à créer ou renforcer chez l’utilisateur le sentiment que le robot n’en est psychiquement pas un… Je pense par exemple à Nao qui, après qu’un enfant l’a caressé, dit : “J’ai l’impression d’être un chat.”
Robots humanisés pour humains déshumanisés ?
Ces nouvelles technologies nous parlent peut-être aussi, indirectement, de ce que nous pensons de leurs destinataires.
Je passe rapidement sur les liens entre nouvelles technologies et âgisme, qui sont sans doute assez connus[3], et qui colportent quelques solides stéréotypes autour de l’équation “vieilles personnes” = “technophobes” = “Alzheimer”… Quelques illustrations : l’expression “téléphone pour seniors”, dans un moteur de recherche, amène directement sur des appareils (téléphones avec 4-5 grosses touches) destinés en réalité à des personnes atteintes de certaines maladies cognitivement très handicapantes. Ou ce film à succès qui a tourné sur l’internet où le père (la soixantaine) d’une jeune-femme qui lui offrait un i-pad se mettait aussitôt à l’utiliser comme une planche à découper. Car malgré la réalité (usage massif ces dernières décennies des tablettes tactiles, des smartphones, etc., chez les plus de 60 ans), on continue dur comme fer à croire que les “personnes âgées” en sont restées, au mieux, à la nostalgie du Minitel. J’ai sous les yeux ces quelques propos, tenus de surcroît par la directrice d’un établissement testant des “nouvelles technologies” (car appartenant à un groupe privé de maisons de retraite réalisant d’énormes investissements financiers dans ce secteur prometteur) : “Après quelques instants d’hésitation, la curiosité a pris le pas auprès des résidents qui se sont rapidement lancés au bras de Kompaï [4]. Ils n’ont bien sûr pas perçu l’aspect thérapeutique, mais nous étions persuadés qu’ils seraient technophobes. Or à notre grande surprise ils se sont sentis très valorisés de marcher avec un robot.”
On peut donc se réjouir que le robot valorise les vieilles personnes et les rende technophiles… même si malheureusement il ne les rend pas plus lucides sur son aspect thérapeutique. Affligeant. (Tellement affligeant que cela nous prépare déjà à cette dimension, que nous envisagerons bientôt, du “robot préféré à l’humain”… Autrement dit, on pourrait comprendre qu’une résidente de cet EHPAD préfère avoir dans sa chambre un robot qui lui lise Les trois mousquetaires plutôt que cette directrice qui vienne lui faire une causette émaillée de ses clichés…)
Revenons à l’essentiel. Est-ce seulement parce que ces “personnes âgées” sont vulnérables et en besoin d’assistance qu’on leur destine ces objets ?
Que penser, dans le système économique dans lequel nous vivons, du fait qu’une partie de ces technologies est surtout testée et utilisée sur (plus qu’avec) des publics captifs ? Certains robots sont en effet surtout essayés sur des personnes âgées le plus souvent atteintes de syndromes démentiels, qui ne les ont jamais demandés, à qui on les apporte puis remporte de manière plus ou moins réfléchie, et qui les évaluent le plus souvent… à travers ce que les professionnels disent qu’elles évaluent.
A l’autre bout de la vie, gros succès de certains robots chez les touts petits enfants qui, eux non plus, ne peuvent maîtriser ce qu’on leur propose, s’en défendre éventuellement, etc.
Au sein même des publics vulnérables, on observe aussi des différences qui interrogent sérieusement. Dans la littérature consacrée aux robots “compagnons”, par exemple, articles et textes sur leur usage avec des enfants et adultes jeunes ayant des troubles autistiques, articles et textes sur leur usage avec des adultes âgés ayant des syndromes démentiels. Dans les premiers, toujours un paragraphe qui précise l’attention que les professionnels portent à ne pas leurrer les patients, à bien leur montrer au début d’une séance qu’il s’agit d’un robot (par exemple en ouvrant la trappe qui montre l’intérieur de la machine). Dans les textes qui concernent les malades d’Alzheimer, jamais une telle précision.
Parce que jamais un tel souci. On a là au contraire le sentiment que tout le monde souhaite que le robot soit pris pour un vrai animal, pour un vrai humain. D’un côté, donc, outil-médiateur pour le soin, outil d’une relation de soin où soignant et soigné sont là tous les deux ; de l’autre outil de remplacement et de déculpabilisation pour les humains qui peuvent dès lors s’absenter ?[5]
Mais qui a vraiment besoin du robot ?
Autre hypothèse : que le malaise de beaucoup d’entre nous face à ces robots compagnons et aux personnes atteintes de maladie d’Alzheimer vienne de ce que nous n’assumons pas tout à fait que le robot est finalement bien plus utile pour nous que pour elles…
Certes, côté patientes, il y a les troubles cognitifs liés à la maladie d’Alzheimer : ils rendent en effet de plus en plus difficiles la communication verbale et tous les soutiens cognitifs (mémoire des noms, des dates, etc.) des relations. Mais ça n’empêche pas ces personnes malades d’être émotionnellement présentes, de chercher à entrer en relation avec les autres, etc. Côté soignantes, et plus globalement côté “non-malades”, il n’y a pas les troubles cognitifs, mais très souvent les troubles émotionnels et relationnels : comment communiquer avec ces personnes malades, comment rester soi quand on n’est plus reconnu, comment se conduire quand tout semble si décousu, comment être à l’aise, voire comment ne pas ressentir de la détresse ou même de la panique ?
Arrive là le robot, qu’il ait l’apparence d’un bébé phoque, d’un chat de gouttière ou d’un héros de dessin-animé japonais, et dès le début, avant même que les patientes réalisent ce qu’on apporte, le phénomène est perceptible : on approche plus détendu avec lui dans les bras, on ne se regarde plus en chien de faïences mais on regarde le même objet, on ne se touche pas mais on peut le toucher ensemble, bref, une forme de facilité, de fluidité, apparaît dans la relation.
Je ferais donc volontiers le pari, avec plusieurs autres auteurs de ce livre, que ces robots – mais comme le font encore mieux de vrais animaux pour les gens qui n’en ont pas peur [6] – favorisent essentiellement la relation parce qu’ils nous aident, nous, à y être plus à l’aise[7], parce qu’ils nous aident, nous, à vivre mieux ce face à face qui ne va plus du tout de soi quand la face de l’autre nous angoisse.
Rationalité économique et irrationalité scientifique
Ces technologies nous parlent aussi de nos choix, politiques notamment. Il ne faut pas, lit-on partout, que les soignants s’inquiètent, qu’ils aient peur d’être remplacés, il faut qu’ils comprennent que ces nouvelles technologies visent “à leur laisser plus de temps pour des relations de meilleure qualité”, qu’ils comprennent que dans quelques années, quand ce seront “des robots qui feront le ménage et lèveront les personnes de leur lit”, les personnels auront eux “plus de temps pour accompagner les personnes” (P. Champvert, président d’un syndicat de directeurs d’établissements gérontologiques). Mais puisqu’ils doivent croire tout cela – et y compris si ça continue que quand le traineau du Père Noël sera robotisé ils auront lui et ses rennes plus de temps pour venir faire de la zoothérapie dans les EHPAD –, il faudrait que les Grands Esprits qui, eux, ont tout compris, leur donnent pour les aider autre chose que des mots. Des faits (variés). Des expériences (sérieuses). Des évaluations (rigoureuses).
Et là, le bât blesse sérieusement.
Non seulement parce que ce qui est présenté par les Grands Esprits comme un choix (démocratique) à venir est en réalité un choix (d’experts) déjà accompli[8], mais surtout parce que la lecture de la littérature consacrée à l’évaluation de ces nouvelles technologies laisse plus que songeur.
Plus que songeur, du mauvais côté du songe : très peu de travaux, très peu d’études. Et quand il y en a… Uniquement des études qui ne passeraient pas au crible des critères et des protocoles exigés par les revues scientifiques ou de ceux des études portant sur des médicaments. Si l’on prend comme exemple l’un des robots les plus célèbres, Paro, il n’y a pas actuellement une seule étude qui satisfasse à des critères scientifiques rigoureux. Outre le nombre très restreints des personnes, en général pas de groupes témoins, ou pas de groupes témoins disposant d’une semblable attention humaine[9], et quasiment jamais de groupes témoins avec d’autres dispositifs. Jamais de double-aveugle. Au contraire en quelque sorte : évaluation du dispositif faite généralement par les personnes qui l’ont mené, ou par des personnes qui savaient qui avait fait quoi ; etc.
Heureusement qu’il y a le Robot Poireau !
Bref, ces études, qui sont en réalité destinées à produire des sources et références pseudo-scientifiques pour les départements marketing et financement, sont conçues pour confirmer à moindre frais que l’objet, qualifié de « robot thérapeutique » a priori (parce que son fabricant l’a qualifié ainsi) est… thérapeutique. La plupart maintiennent le flou entre les deux sens du terme (thérapeutique : faire du bien / thérapeutique : s’inscrire dans une démarche de soin menée par un professionnel en vue de prévenir ou d’améliorer certains symptômes), et quasiment toutes finissent par conclure sur un équivalent plus ou moins amélioré (par quelques chiffres, graphiques, etc.) d’un “C’est magique, elle a souri quand le phoque a souri.”[10]
Quant aux autres technologies, si elles sont évaluées et testées sur leur capacité à fonctionner (GPS qui donne la bonne position ; capteur de présence qui réagit correctement ; etc.), il n’existe aucune étude qui les évaluent sur leurs usages et sur leurs incidences sur le prendre soin, sur les activités des soignants, sur l’organisation de l’établissement, etc. Bref, si les Grands Esprits qui parlent avec condescendance de ces professionnels technophobes et inquiets pour l’avenir veulent que ces professionnels le soient moins, qu’ils fassent moins de promesses et donnent plus d’arguments.
Prendre soin machinalement, mécaniquement, est-ce encore prendre soin ?
Cela dit, ces aspects politiques nous mènent sur un autre chemin. Car l’argument “les robots feront le mécanique, ainsi l’humain pourra se consacrer au prendre-soin”, nous questionne bien, en réalité, sur ce que l’on considère comme étant du mécanique et comme étant du prendre-soin.
Et de qui le considère. L’évaluation qui doit primer est celle de la personne concernée. De chaque personne. Car si pour l’une, c’est une libération que d’avoir un robot qui fait le ménage de sa chambre pendant qu’elle peut ainsi continuer à lire sans être dérangée, pour l’autre c’est une absence douloureuse que de n’avoir plus, les jours de ménage, cette personne avec qui elle papotait pendant que la poussière attendait pour passer d’un meuble à l’autre…
Il y a bien deux dimensions imbriquées : la politique (où ce sont ceux qui sont loin du prendre-soin qui décident de comment le prendre-soin doit être organisé) et la psychique (où se dessine ce qu’est prendre soin et ce qu’est une relation de prendre-soin à partir des personnes dont on prend soin, et dans leur relation avec celles qui en prennent soin).
Illustration d’une telle problématique : prendre des nouvelles après un soin, est-ce important que cela se fasse entre humains ?
Récemment, testé par l’AP-HP (Assistance Publique – Hôpitaux de Paris) : un programme qui, ici trois jours après une opération gynécologique visant à retirer des lésions pré-cancéreuses du col de l’utérus, envoie à la patiente les quatre SMS suivants à la foulée :
Hôpital X : « Si vous avez des nausées ou des vomissements importants répondez simplement les 3 lettres NPO par SMS » ;
« Evaluez votre fatigue : Répondez PAS si vous n’êtes pas fatigué, PEU si vous êtes un peu fatigué, BCP si vous êtes très fatigué, EXT si vous êtes épuisé » ;
« Un petit écoulement de sang est normal au niveau de la cicatrice. S’il est important répondez simplement les trois lettres SNG par SMS.” ;
« Evaluez votre douleur actuelle sur une échelle de 0 à 10 et répondez simplement un chiffre (0 : pas de douleur, 10 : douleur insupportable) »
Puis, une heure trente après, nouveau SMS : « Vous n’avez répondu à aucun SMS. Si tout va bien répondez TVB.” (On imagine bien Desproges répondre DCD[11], non ?)
Mécanisation
Une telle expérimentation n’est ici possible qu’en partant du principe que l’essentiel dans ces situations de prendre soin post-opératoire réside dans les informations. Qu’elles soient échangées lors d’un dialogue, d’une relation, entre humains, est superflu (+ coûteux = à supprimer). Ailleurs, on pourra tout aussi bien partir du principe que l’essentiel d’une aide au ménage est la quantité de poussière sur les meubles ; que l’essentiel d’une aide au lever est que la personne soit rapidement passée de la position allongée-en-pyjama à la position-assise-habillée. Dès lors, si des robots (moins coûteux que des humains) peuvent le faire, pourquoi ne le feraient-ils pas ?[12]
Dans toutes ces questions, la dimension robotique concerne le futur : mais c’est bien au présent que nos conceptions de ce qu’est prendre soin préparent le futur. Un présent lui-même issu de toute une histoire où l’on n’a pas attendu les robots du futur pour robotiser les humains[13]. Si P. Champvert peut aussi facilement penser que des actes comme lever une personne ou faire le ménage de sa chambre sont des actes robotisables, c’est aussi parce que ces actes-là sont enseignés aux professionnels, sont organisés dans les établissements, depuis des décennies, de manière mécanique.
Et toutes les professions sont concernées. Quand on regarde de nombreuses formations, de nombreux enseignements, qu’ils s’adressent à de futurs médecins, aides-soignants ou psychologues, on ne peut qu’être frappé par leur pauvreté en termes de capacités d’autonomie, de coopération, de dialogue, d’apprentissage continu… [14] A l’inverse, il est des intelligences artificielles qui sont de plus en plus programmées pour tenter de ne pas seulement suivre les programmes, pour avant d’agir évaluer, adapter, apprendre, questionner qui peut les aider, etc.
Bref, on verra bientôt des intelligences artificielles destinées à se conduire de manière plus humaine que les humains que d’autres forment à se conduire bêtement et mécaniquement. Et encore ne parlons-nous pas ici de certaines professions (directions d’hôpitaux, par exemple) où le technocratisme à la française cherche à fabriquer, depuis bien avant la naissance de la première peluche à piles qui fait pipi et dit “maman”, des pensées dévitalisées et des conduites relationnelles dépersonnalisées.
Il suffit donc de pousser à bout la logique d’un pur utilitarisme matérialiste, de penser et d’organiser des activités humaines en les réduisant à certaines micro-tâches fonctionnelles (baby-sitting = surveiller que l’enfant n’est pas physiquement en danger ; psychothérapie = permettre à la personne de parler ; aider à manger = remplir un corps d’aliments ; etc.) pour que des robots, extrêmement compétents pour capter, enregistrer, bouger, faire semblant d’écouter, etc., paraissent pouvoir remplacer les humains.
Impossible en revanche dès qu’on inverse cette logique, dès qu’on considère que la particularité du prendre-soin, c’est justement d’humaniser ce qui pourrait ne pas l’être, c’est justement de ne pas réduire la communication à un échange d’informations, c’est justement de ne pas réduire la relation à un corps-à-corps. Porter une personne sans lui donner le sentiment d’être un paquet ; l’aider à faire sa toilette sans lui donner le sentiment qu’on fait le ménage de son corps ; faire le ménage de sa chambre sans lui donner le sentiment qu’elle en est un meuble…
C’est justement tout cela, prendre soin, toute cette attention à ce qu’il y ait de l’humanité là où elle pourrait déserter.
Soignants robotisés Vs robots humanisés ?
Et où elle a bel et bien, souvent, déserté. Il ne suffit pas qu’il y ait de l’humain pour qu’il y ait de l’humanité. Qui peut le mieux peut le pire. Car l’humain, c’est aussi le soignant qui ne dit pas “bonjour” quand le robot, lui, le dit ; c’est aussi le soignant qui fait des remarques sur le poids, la taille, les goûts, etc., quand le robot ne juge pas ; c’est aussi le soignant qui est brutal, quand le robot ne l’est pas.
On peut donc penser que les machines, une fois de plus, en arrivant sur un terrain, ne nous parlent pas d’elles, mais de la manière dont nous occupons ce terrain. Si l’on mécanise et qu’on déshumanise le prendre soin et les soignants, on aura des soignants mécanisés et déshumanisés – sous toutes les formes possibles, depuis l’indifférence totale à l’autre, corps-objet de soin – jusqu’à la violence, vengeance sur le plus fragile.
Dans un tel contexte, il est certain que beaucoup de patients seront moins désolés de la neutralité du robot mettant fin à l’humanité du soignant que soulagés de la neutralité du robot mettant fin à l’inhumanité du soignant. Et il est probable que la neutralité du robot sera même aisément perçue – avec l’aide de quelques effets manipulatoires (lui faire dire “J’espère que vous avez bien dormi ?” ou “Je suis enchanté de vous voir” plutôt que “Bonjour”) – comme une forme d’humanité…
Dans un tel contexte, qui est déjà celui de certains endroits, que demanderaient les patients si le choix leur était donné ? Imaginons : sachant que 1/ si c’est une soignante qui vient vous aider à vous laver, il existe une chance sur deux qu’elle soit sympathique et douce, et que vous passiez un bon moment, et donc un risque sur deux qu’elle soit désagréable et brutale et que vous passiez un mauvais moment 2/ si c’est un robot qui vient vous aider à vous laver, il sera forcément neutre, pas chaleureux, mais jamais brutal, pas empathique, mais jamais méchant. Que préférez-vous ?
En éliminant ce qui produit les risques (d’erreur, d’indifférence, de méchanceté…), on élimine aussi ce qui produit les chances (d’empathie, de sympathie, de complicité, etc.). Un choix qui dépend aussi énormément de la vulnérabilité : ne faut-il pas, pour tenter ces chances en prenant ces risques, se sentir un minimum solide et apte à se défendre ?
Psychologues virtuels
De telles réflexions pourraient-elles se conduire également dans le domaine du prendre-soin psychothérapeutique ? Car là aussi certaines dimensions s’absentent de plus en plus (pensons aux psychothérapies par téléphone ou par SMS), et là aussi le virtuel arrive : il existe des “psychologues virtuelles”, des programmes d’intelligence artificielle axés psychothérapie et auxquelles les “patients-testeurs” s’attachent !
D’ailleurs, puisqu’en ce domaine il s’agit d’écouter, et pas seulement d’entendre, j’aimerais qu’on se demande si nous écoutons justement bien ces études, nombreuses, conduites depuis plusieurs décennies avec des étudiant.e.s utilisant des intelligences artificielles “psychologues”, très “validantes” (elles sont programmées pour appliquer de manière mécanique certaines des techniques établies par Carl Rogers, reformulant et questionnant à partir de ce qu’on vient de leur dire. Elles vous répondent donc “Pourquoi vous sentez-vous triste ?” quand vous dites que vous l’êtes, ou “Je suis contente que vous vous sentiez bien” si vous venez de l’informer de cette sensation…). Une part non négligeables de ces étudiant.e.s non seulement apprécient ces échanges avec de tels programmes, mais finissent par les préférer à des thérapeutes humains et à en devenir dépendant.e.s.
On peut se débarrasser de la question en suspectant ces étudiant.e.s d’être des humains déjà tellement informatisés, tamagochisés, virtualisés, etc., qu’ils ne peuvent plus caresser un chat sans chercher l’interrupteur ou apprécier à sa juste valeur ce qui n’existe que dans le cadre d’une relation psychothérapeutique avec un autre humain. Mais on peut aussi estimer que de tels phénomènes devraient amener à nous questionner un peu plus sur ce qui se passe depuis des décennies dans les cabinets des psychothérapeutes humains pour que des artificiels leur soient si vite préférés.
Il est en effet possible que ce degré zéro, ce rogerisme-mécanique de l’écoute et de l’empathie, soit absent de certaines relations thérapeutiques, et que le thérapeute virtuel apporte ainsi quelque chose “en plus”. Après tout, les témoignages abondent malheureusement – dans la clinique du traumatisme, par exemple – de patient.e.s ayant passé des années à tenter, de thérapeute en thérapeute, d’en trouver un.e si ce n’est compétente, mais au moins capable d’éviter les disques “Il faut passer à autre chose.” ; “Vous sur-réagissez” ; “Il serait temps de pardonner.” ; ” Vous vous complaisez dans le malheur”…
Mais il est possible également que ce soit en réalité des choses “en moins” qui rendent ce thérapeute artificiel plus confortable. Plus confortable, mais pas forcément plus thérapeutiques. Ne serait-ce que parce qu’il existe, pour le dire en plagiant Vygotski, des sortes de “zones proximales thérapeutiques” où un patient est prêt à aller mais ne peut aller qu’avec le soutien du thérapeute.
Un “dispositif” qui entend, renvoie qu’il entend, mais ne dit jamais rien de plus ou de différent que ce qui vient de lui être dit, est sans doute apaisant, mais peut-on réellement le qualifier de psychothérapeutique ? Voilà bien longtemps en tout cas qu’on sait que Narcisse finit mal quand Narcisse n’entend qu’Echo.
Robots bavards et psys silencieux
Ironie de l’histoire : nous sommes prêts à réagir très vite et de façon virulente quand on apprend que des patients disent ressentir que leur robot psychologue éprouve de l’empathie pour eux parce qu’il a, de temps en temps, répliqué des phrases du type : “Je suis désolé d’apprendre que vous vous sentez triste.” ou “Pouvez-vous m’en dire un peu plus sur ce sentiment de lassitude ?”. Mais beaucoup d’entre nous n’avons pas réagi aussi fortement quand des patients racontaient qu’ils avaient pu passer des mois ou des années à dire leur lassitude ou leur tristesse à leur psychanalyste (humain) sans que cela provoque une seule phrase de sa part…[15]
A se demander qui projette le plus : le patient qui croit que son robot-psy bavard éprouve ce qu’il dit ou le patient qui croit que son humain-psy taiseux éprouve ce qu’il ne dit jamais ? A se demander quel transfert est le plus thérapeutique, et quel contre-transfert est le plus désastreux…
Et à se dire que l’on prend peut-être les nouvelles technologies pour des boucs émissaires… Car une fois de plus ici ce ne sont pas forcément elles les coupables si le corps d’une machine est parfois plus présent que le corps d’un humain, si la parole (artificielle et techno-programmée) d’une machine porte parfois plus d’humanité que le silence (conceptuel et auto-programmé) d’un humain.
Ajustement
Il est donc facile d’en arriver à faire accepter les machines comme apportant un mieux face à l’humain si l’on a auparavant vidé les relations humaines de leurs complexités, ou si l’on a rendu les humains défaillants.
Mais également, comme on en a pris l’habitude depuis bien avant les robots, si on pense aux solutions avant de penser les problèmes, si on évalue les besoins sans les personnes concernées. Comme le dit Bernard Ennuyer : “Le principal problème aujourd’hui dans les EHPAD c’est le sentiment de solitude et d’exclusion. Et on voudrait nous faire croire que la modernité c’est de les faire parler avec des robots.”
Si nous voulons vraiment que ces nouvelles technologies soient développées pour le profit des patients, il faut que ce soit les patients qui participent à leur élaboration, en définissent les usages, et puissent individuellement les accepter ou les refuser, etc. Sinon, leur développement ne répondra qu’à des critères de rentabilité et leur utilisation avec (et non par) les plus fragiles témoignera seulement de ce que ce public, vulnérable et captif, n’a pas les moyens de leur résister.
Crainte présente dès qu’une technologie n’est pas ou ne peut être utilisée de manière ajustée et personnalisée. Un exemple : il est possible avec quelques capteurs et leur logiciel d’analyse de savoir facilement si une personne se trouve par terre, à la suite d’une chute[16]… Il est certain qu’une telle solution représente un bénéfice pour les personnes qui n’apprécient pas que des professionnels entrent dans leur chambre la nuit pour voir si tout va bien (ou n’apprécient pas leur manière de le faire). Il est également certain que cette solution n’est pas apte à rassurer, notamment : les personnes qui ne peuvent la comprendre ; les personnes qui sont rassurées justement par la présence, le regard, l’attention, d’un humain. Autrement dit, si cette solution, quand elle existe dans un EHPAD, est imposée à tous les résidents de l’établissement, elle représente clairement une avancée technologique mais un recul en matière de prendre-soin, de personnalisation, de respect des personnes, etc.
Du “mieux que rien” au “mieux que tout”
Des questions-soucis qui rejoignent aussi celles que pose Sherry Turkle, notamment dans son livre Seuls ensemble, où elle propose de distinguer trois catégories d’usage de ces technologies :
Un usage dans une forme de “mieux que rien” : des personnes pour lesquelles il vaut mieux ces technologies, de surveillance, de détection, voire de présence (robot compagnon) que rien du tout ou que personne.
Un usage dans une forme de “mieux que certains humains” : des cas où les personnes préfèrent que l’acte d’aide soit accompli par une machine que par des humains qui l’accomplissent sans précaution, sans humanité ou avec brutalité.
“Je suis désespérée…” Ici, clairement, le robot qui répond : “Je suis désolé que vous soyez désespérée.” peut être jugé préférable à l’humain qui répond : “Mais il n’y a pas de raisons, vous êtes bien ici, on s’occupe bien de vous.” Sachant que sans aller jusqu’à ces cas, que nous avons déjà évoqués, où il est facile de juger qu’un robot est mieux qu’un humain maltraitant, il suffit de considérer deux aspects où le robot peut l’emporter sur quasiment tous les humains :
Celui du temps : quand le robot-compagnon appartient à la personne, il reste avec elle tout le temps, nuit et jour. A part des millionnaires, qui, actuellement, pourrait avoir s’il le souhaitait une présence permanente ? Certes, le robot-compagnon ne parlera jamais sa présence d’un : “Je suis là parce que j’aime être là.”, mais il ne partira jamais, et jamais avec un : “Bon, je dois y aller, j’ai mon travail / ma vie / etc., qui m’attend.”
Celle du besoin de l’autre : l’une des dimensions les plus fortes et les plus addictives des créatures virtuelles (celles par lesquelles on rend les enfants accros aux jeux en ligne[17], comme celles qu’on propose aux EHPAD) : faire croire à leur usager qu’il est nécessaire qu’il prenne soin d’elles. Comme le dit S. Turkle : “Le robot demande qu’on s’occupe de lui et les personnes âgées ont ainsi l’impression qu’on a besoin d’elles.”
Un usage dans une forme de “mieux que tout” : et S. Turkle de nous révéler ces situations, loin d’être anecdotiques, où des personnes finissent par préférer nettement le “robot de compagnie” que des humains, y compris des humains aimants de leur famille. Des enfants interrogés à ce sujet avouent du reste clairement leur crainte que leurs grands parents s’attachent davantage à leur robot qu’à eux.
S. Turkle suggère deux facteurs explicatifs, à creuser sûrement : celui de la plus grande facilité à comprendre le robot, à anticiper son comportement, notamment si la personne est fragile cognitivement. Tandis que la petite fille change souvent, n’a pas les mêmes envies d’une fois à l’autre, est imprévisible, etc.
Celui de la honte, face aux humains : honte de ne plus se souvenir de l’anniversaire de la petite fille, honte de ne plus répondre aussi vite, etc. Le robot, lui, ne juge pas. Serait-ce d’ailleurs cette forme de non-jugement qui rendrait tant de gens, quel que soit leur âge, sensibles à ces robots avec lesquels il n’y aura jamais la possibilité de l’échange aimant, mais jamais non plus le moindre regard critique et dévalorisant. Il semble que certains d’entre nous soient en effet vite prêts à renoncer à la promesse de l’amour pour la certitude de l’absence de mépris.
Quoi qu’il en soit, la réalité de ces situations où le robot peut rapidement devenir indispensable à une personne, ou rapidement dévitaliser les liens entre une personne et ses proches, doit rendre extrêmement prudent : d’une part sur les manières de confier ces robots aux personnes (Pourront-elles le garder ? Qui décide du temps passé avec lui ? De le retirer ? etc.), d’autre part sur la distinction, clarifiée, pensée, etc., entre robot de médiation, utilisé pour favoriser l’entrée en relation avec la personne et la relation de soin, et robot-remplaçant d’humain, utilisé comme une forme de leurre et d’ersatz.
Dis-moi quel robot on te donne, je te dirai comment on te voit…
Avant de conclure, ou plutôt d’ouvrir vers les autres textes de cet ouvrage, quelques pensées encore, un peu éparses, vers deux ou trois chemins de réflexion.
“Prendre-soin augmenté”, dit le sous-titre de ce Séminaire, en référence aussi à cet “Homme augmenté” que fantasment les adeptes de la transhumanité. Mais augmenté de quoi ? A regarder ces technologies, robots compagnon compris, on les voit augmentées en quantité de données, en vitesse de traitement, en capacités de calcul, bref, en capacités cognitives sur lesquelles les ordinateurs sont quantitativement plus performants que les humains. Jamais augmentées en revanche de ce qui manque justement à tant d’humains quand ils sont déshumanisés : du désir, de l’humour, de la rêverie, de la créativité, de la sensibilité, de la spiritualité, de la sensorialité, etc. Ces machines qui nous obsèdent[18] : tellement cognitives et si peu émotionnelles. Tellement calculatrices et si peu sentimentales. Tellement pleines de données et si peu capables d’en rire, d’en créer, d’en rêver…
Au point qu’on peut aller jusqu’à se poser la question : quand on donne ces robots-là, incapables d’empathie, de sympathie, incapables de partager une émotion, incapables malgré tous les progrès de l’intelligence artificielle[19], de partager une seule, une simple émotion, quand on donne ces robots-là à des personnes atteintes de maladie d’Alzheimer, à de vieilles personnes malades en EHPAD, quand on donne ces robots-là y compris avec les meilleures intentions du monde, mais en pensant donc que ça suffit à leurs besoins, que révèle-t-on de la vision qu’on a de ces personnes, de la valeur qu’on accorde à ce qu’elles vivent ?
Je pose la question, et j’avoue que j’y réponds personnellement avec une sorte de honte. Honte de nous, car je crois que quand nous laissons Paro à une vieille dame, nous lui disons implicitement qu’elle ne mérite pas mieux ; ou, pour le dire autrement, car nous sommes parfois réellement séduits par Paro : peut-être lui disons-nous juste qu’ils sont à nos yeux un peu pareils, le robot et elle, avec leurs expressions réduites à quelques couinements, à quelques mouvements… Et la honte ne vient pas d’une gène liée à ce que nous avons raison sur les apparences extérieures (car il est bien des personnes très malades dont le corps n’exprime plus que quelques sons et quelques gestes), mais de la facilité avec laquelle nous semblons oublier que l’essentiel de l’humanité de l’humain ne se situe pas là.
Vers le leurre
Mais j’entends rire les avatars de certains néo-psychologues occidentaux. Puisque tout n’est que comportement, puisque l’amour n’existe pas qu’il n’y a que des preuves d’amour, puisque peu importent les émotions tant qu’il y a l’essentiel – la lecture et l’expression des émotions –, le robot n’est pas moins que l’humain, il est comme lui. Il sourit à la dame qui lui sourit, lui demande comment elle va, adopte une mimique de tristesse si elle répond couci-couça, une mimique de joie si elle répond qu’elle va bien, a mémorisé ses goûts et ses habitudes, etc.
Mais une fois de plus, attention : on peut toujours diaboliser les ingénieurs ou les commerciaux de ces robots humanoïdes (dont les quelques fonctions, aussi sophistiquées soient-elles pour une machine, sont d’une effarante pauvreté comparées aux richesses humaines), il n’en reste pas moins que ce sont bien des humains qui les achètent, et qui s’y attachent. Les fabricants de leurres ne travailleraient pas tant si nous n’étions pas si nombreux à nous faire leurrer, et à continuer à nous faire leurrer en sachant que nous nous faisons leurrer…
Est-ce là une conséquence de nos impressionnantes facultés de projection empathique, celles-là même qui conduisent les humains, petits ou grands, à animer des marionnettes ou des personnages, à prêter potentiellement à tout ce qui est en relation avec nous des émotions, des intentions, des pensées… Et à le faire d’autant plus facilement, comme le souligne S. Turckle[20], que nous avons face à nous un système opaque, équivalent artificiel de l’opacité d’un autre humain. Les robots ne seraient alors que les nouveaux supports d’une forme moderne d’animisme avivée par leur complexité…
Autre hypothèse, qu’on qualifierait volontiers de “complexe de Pygmalion”. Le fabricant ne peut aimer qu’une créature qu’il a fabriquée… mais a besoin de croire qu’elle est naturelle et libre. Car être aimé d’un être programmé pour le faire, ce n’est pas vraiment être aimé – que vaut l’amour de quelqu’un qui n’a pas le choix ? Il faudra donc se leurrer en croyant que le robot a le choix, que ses “preuves d’amour” ne sont pas que mécaniques, qu’elles sont ressentis, qu’elles pourraient ne pas être. Bref, passage de l’attachement (programmé) à l’amour (libre). Tiens, est-ce que ça ne nous rappelle pas d’autres étranges créatures, cette histoire-là ?[21]
Précisons au passage une autre caractéristique du “complexe de Pygmalion” : pour se persuader que sa créature est libre et naturelle, il lui faut se persuader qu’elle l’est mais aussi la persuader qu’elle l’est… D’où la dimension du langage et du “Je” que nous retrouvons ici : le robot doit absolument dire « Je m’appelle Galatée. » et non « Galatée est le nom attribué par mon concepteur à l’ordinateur que vous utilisez maintenant. »
Tous inégaux devant les leurres
Nous pourrions en rester là si cette facilité à adopter un leurre puis à oublier qu’il en est un s’observait bien chez tous les humains, dans toutes les situations. Or il semble quand même que cette facilité soit proportionnelle :
– à la capacité de ne pas comprendre qu’il en est un. Pas un hasard si les animaux-robots par exemple sont surtout proposés à des petits enfants et à des malades d’Alzheimer ;
– à l’isolement. Car même si des humains entourés, pouvant s’attacher à des personnes dans des conditions de relative égalité relationnelle, peuvent s’attacher à des robots, les humains s’y attachent d’autant plus vite et d’autant mieux qu’ils sont moins entourés (dans les conditions précisées).
En ce sens, d’ailleurs, et ce serait là un chemin de réflexion à ouvrir pour une autre fois, ce n’est pas l’isolement au sens quantitatif que le robot vient compenser, mais un isolement entendu comme l’absence d’un certain type de relations. Dès lors, hypothèse : ce qu’une personne, y compris assez entourée (multiples professionnelles, “proches aidants” régulièrement présents, etc.), tisse comme lien avec son robot se construit sur ce qui n’existe pas ou plus dans ces liens avec cet entourage.
On retrouve alors la dimension du regard et du jugement : pour le robot, je ne suis pas vieux / Alzheimer / malade / etc. Et j’échange la vraie humanité jugeante de ces regards-là contre l’humanité artificielle mais inconditionnelle du leurre…
Dans la série des études qui n’auront jamais lieu[22], il faudrait ainsi tenter celle où l’on programmerait un robot compagnon avec des phrases et des conduites liées à la maladie de la personne et donc souvent présentes chez les humains qui la fréquentent. Par exemple, le robot demanderait régulièrement à la dame atteinte de maladie d’Alzheimer si elle a pensé à prendre ses médicaments ou à éteindre la lumière de la cuisine, si elle reconnaît X ou Y sur la photo ; il lui dirait qu’il lui a déjà répondu quand elle lui pose plusieurs fois la même question ; il la reprendrait quand elle se trompe de mot ou de nom ; etc. Hypothèse : plus le robot ressemblera par ses phrases et sa conduite à un humain banal en contact avec des gens atteints de maladie d’Alzheimer, moins la personne s’y attachera…
Mais revenons à nos (robots-)moutons. Pour simplement insister : si en effet le robot est d’autant plus apprécié que l’isolement est fort, il nous faudra alors être prudents et ne pas prendre bille en tête l’efficacité relationnelle des robots pour une preuve de leurs capacités relationnelles. Car elle peut seulement nous parler des manques ou des difficultés relationnelles des non-robots.
Du leurre à la manipulation
Petite parenthèse, au sujet du leurre. Pour préciser qu’il ne s’agit pas de diaboliser toute forme d’illusion. Le transfert, les transferts, qui adviennent plus ou moins fortement dans toutes nos relations, ne sont possibles que parce qu’il existe une forme d’illusion sur ce que l’autre est, ressent, pense, etc. Dans la psychothérapie, dans la famille, dans le groupe (un groupe de croyants qui se réunit pour une cérémonie, par exemple, tient en partie sur la croyance que chacun d’eux croit au même Dieu), l’illusion partagée. On pourrait même soutenir sans être très révolutionnaire que toute relation soignante, et au-delà toute relation entre humains, (se) nourrit (d’)une illusion partagée. Qui tient bien tant qu’elle est partagée – et c’est là qu’avec le robot il y a un souci : lui ne partage pas l’illusion qu’il est à mes yeux autre que ce qu’il est. Lui ne peut, précisément, jamais être dans l’illusion. Pour un humain, un autre humain n’est jamais (seulement) ce qu’il est. Pour un robot, un humain n’est que ce qu’il est (en tant qu’objet interactif).
Si l’on passait maintenant du leurre-illusion au leurre-simulation ? Dans un premier temps sans la diaboliser non plus. Après tout, faire parfois un peu semblant d’écouter, c’est le lot commun de la majorité des hommes et des psychanalystes. Et même quand on est écouté, c’est sans doute aussi parce qu’on est jamais tout à fait compris qu’on continue de parler…
Mais la frontière est mince entre simulation et tromperie. Passée, elle nous conduit aux leurres qui trompent, et trompent sciemment. Repensons à la phrase de Nao : “J’ai l’impression d’être un chat.”, et plus généralement à toutes les phrases que les robots sont programmés pour dire et qui sont destinées à faire croire qu’ils ressentent des émotions “Je suis enchanté de vous rencontrer” ; “Je suis désolé que…” ; etc.)[24]. Pensons aux robots humanoïdes qui, lorsqu’on les éteints, miment une forme de décès (tête qui brutalement tombe sur la poitrine), ou aux animaux virtuels qui font croire à des enfants qu’ils vont mourir (si l’enfant ne les nourrit pas en achetant des croquettes virtuelles… avec de l’argent pas virtuel du tout)… Ces manières d’agir ou de parler, ces mots et ces phrases, sont clairement des outils de manipulation et de tromperie, ayant de surcroît pour cibles privilégiées des personnes fragiles. Je trouve ici a minima étrange, et réellement inquiétante, notre tolérance… (de parents comme de soignants).
Des calculatrices pour les poètes
Autre piste de réflexions, que nous avons frôlée sans nous y aventurer vraiment : quand on remarque que les personnes atteintes de maladie d’Alzheimer sont actuellement parmi les publics privilégiés pour tester et vendre les robots compagnons, on ne peut s’empêcher de poser deux questions :
L’une que j’emprunte à S. Turkle : “Pourquoi donnons-nous des objets incapables de comprendre la vie à des personnes qui cherchent le sens de la leur ?” Valable pour tous les humains, elle l’est peut-être encore plus avec ceux d’entre nous confrontés à de telles maladies.
L’autre, qui en est une variation : n’y a-t-il pas quelque chose d’étrange, voire de paradoxal, à proposer à des personnes ayant des maladies qui touchent particulièrement les fonctions cognitives (calcul, orientation, raisonnement abstrait, mémoire explicite, langage verbal, etc.) mais qui, rappelons-le, ne les empêchent pas d’être toujours aptes à ressentir, s’émouvoir, imaginer, créer, prier, aimer, désirer, etc., bref, à proposer à ces personnes pour compagnons des machines hyper-performantes pour traiter les taches cognitives et absolument incapables de ressentir, s’émouvoir, imaginer, créer, prier, aimer, désirer, etc. !
Ambivalence sociale quant aux leurres
Parmi les résolutions possibles du paradoxe, on retombe sur le leurre, qui prend ici la dimension éthique plus que problématique[25] – avec mensonge et manipulation – que nous avons évoquée : avec ces personnes-là, malades, le fabricant du robot profite en quelque sorte de la maladie qui les rend incapables de comprendre cognitivement ce que le robot est, ce qu’il peut et ce qu’il ne peut pas, et utilise ainsi aisément les fonctions de ce dernier pour simuler des émotions, des pensées, des ressentis, etc., qu’il ne vit pas.
D’un point de vue éthique, nous pourrions être très fermes et exiger systématiquement de telles évaluations : si ce que simule un robot (de ressentir une émotion, par exemple) ne marche pas avec des adultes non malades mais marche avec des adultes malades, c’est une forme d’abus de faiblesse, donc à proscrire. Point. Or nous sommes très loin de cette fermeté… Comment l’expliquer (au-delà du fait que les intérêts éthiques sont moins sonnants et trébuchants que les autres) ?
Ici encore, on retrouve l’ambivalence quant à ses robots compagnons lorsqu’ils sont destinés aux personnes atteintes de maladie d’Alzheimer. Car une part de nous (j’entends par là notre culture) désire, finalement, que ces robots-là leurrent suffisamment ces personnes pour qu’elles puissent rester avec eux tout le temps sans plus rien demander aux humains. Imaginons du reste deux situations :
On nous montre un EHPAD sans humains, entièrement automatisé, avec des images de patients déplacés, lavés, soignés, etc., mécaniquement. C’est un (relatif, puisqu’à la mesure des scandales qui concernent les personnes fragiles) scandale ;
On nous montre un EHPAD sans humains, entièrement automatisé, mais avec des images de patients caressant des robots animanoïdes, discutant avec des robots humanoïdes, etc., c’est déjà beaucoup moins le scandale (et encore moins si on met habilement en scène des bébés lapins et phoques aux grands yeux noirs et aux poils doux).
Mais quitte à imaginer, imaginons plus loin. Deux autres situations :
On nous montre un EHPAD avec robots et humains, et avec des images des patients déplacés, lavés, soignés, etc., par des robots, mais discutant, jouant, etc., avec des humains ;
On nous montre un EHPAD avec robots et humains, et avec des images des patients déplacés, lavés, soignés, etc., par des humains, mais discutant, jouant, etc., avec des robots animanoïdes et humanoïdes.
Laquelle de ces situations nous paraîtrait la plus choquante, ou la plus souhaitable ?
Alors soudain, je me demande : quand P. Champvert nous annonce que demain, des robots “feront le ménage et lèveront les personnes de leur lit”, tandis que les personnels auront eux “plus de temps pour accompagner les personnes”, est-ce qu’il ne décrit pas exactement l’opposé de ce qui va advenir : des humains pour faire le ménage et lever les gens, des compagnons-robots pour les accompagner relationnellement…
Machines simples et humains complexes
On pourrait se le demander d’autant plus réalistement qu’il est actuellement bien plus facile de faire un robot de compagnie, type Paro, qu’un robot capable d’aider une personne en difficulté d’autonomie fonctionnelle à se lever ou s’habiller sans danger. Les humains, complexes, sont capables de s’adapter relationnellement à la communication archi-simplifiée que propose Paro, mais ne peuvent pour aider le robot se rendre moins handicapés et moins vulnérables qu’ils le sont.
Machines simples et humains simplifiés
Il est donc assez réaliste de penser que les machines vont surtout envahir le terrain de la robotique de compagnie. Ce qui nous engage sur un autre chemin.
Jusqu’à présent, nous n’avons situé nos réflexions qu’au temps zéro de la relation avec les machines de compagnie. Avant que cette relation modifie les humains qui la vivent. Car ces outils, comme tous les outils, modifient leurs usagers – et vont modifier plus que leurs modes relationnels. Aucun raison que nous n’ayons pas des formes d’attachement avec la machine qui, comme les formes d’attachement décrites par Bowlby et ses successeurs, modèleront l’usager en son humanité même.
Il est encore trop tôt pour se pencher sur les enfants que My real baby aura “élevés”, sur les malades d’Alzheimer que Paro aura transformées, mais… Mais pas trop tôt pour se poser la question : quand déjà les robots nous paraissent complexes, est-ce parce qu’ils sont devenus aptes à répondre à nos complexes demandes ou est-ce parce qu’ils nous ont fait renoncer, en toute inconscience, à nos demandes complexes ? Le problème n’est donc pas tant ce qu’il manque à la machine-compagnon, mais bien les manques en nous qu’elle va creuser au fur et à mesure de son usage.
Pour le dire autrement : l’humain a fait à son image le robot… qui fait l’humain à son usage. Le souci étant que l’humain, en ce faire, en est vraiment aux tout premiers balbutiements – tous les progrès qu’on ne cesse de nous vanter ne doivent pas nous le faire oublier. On est incapables aujourd’hui de faire une machine, aussi intelligente soit elle, ayant ne serait-ce que la complexité d’un plant de tomates, sans même parler de celle d’un gendarme (Pyrrhocoris apterus). Le risque est donc bien réel que les machines simplifient les humains bien avant que les humains aient le temps et les ressources de complexifier les machines…
Serait-ce un autre symptôme du complexe de Pygmalion : puisqu’il ne peut pas tout à fait croire que sa sculpture est aussi complexe que lui, il va se penser aussi simple qu’elle. On rirait d’un sculpteur qui pour comprendre l’anatomie humaine se pencherait sur une sculpture. C’est pourtant, à peu de choses près parfois, ce que font certaines personnes qui imaginent que le cerveau fonctionne comme un ordinateur. Les humains créent pourtant en permanence des “oeuvres”, des “dispositifs”, bien plus complexes que les ordinateurs – à commencer, tout bêtement pourrait-on dire, par la culture, la société qui permettent que de telles oeuvres et dispositifs soient pensées et créées.
“Tout ceci, évidemment, dans le respect de l’éthique.”
Avant de conclure, une dernière réflexion, mêlée de quelque effroi. Car tout ce qu’on vient d’évoquer, même sans être alarmiste, même en restant très ouvert sur l’avenir – convaincu que l’une des formes de l’humanité de l’être humain est sa stupéfiante capacité à se modifier –, impliquerait simplement la nécessité que les réflexions soient aussi nombreuses que les innovations, que les études sur les dimensions psycho-relationnelles soient aussi nombreuses que les recherches sur les capteurs sensoriels des robots ou les mouvements de leurs appendices, que les financements servent autant les travaux de chercheuses en sciences-humaines comme S. Turkle que ceux d’ingénieurs en nanotechnologies[26], et que l’éthique soit autre chose qu’un mantra copié-collé de quelques lignes à la fin de n’importe quelle plaquette ou de n’importe quel article consacrés à ces nouvelles technologies.
Aujourd’hui, en effet, c’est – il n’y a pas d’autre expression – caricatural : très peu de réflexions hors champs techniques sur ces sujets[27] – y compris sur les dimensions positives : car un usage pensé, raisonné, de ces technologies pourraient fortement accroître les libertés et le droits de toutes les personnes que nos peurs nous incitent à surprotéger –, et encore moins en gérontologie (d’où ce livre) que dans d’autres domaines. Et parmi ces rares réflexions, peu de réelles réflexions éthiques (d’où notre souhait qu’Alice Casagrande participe à cet ouvrage).
Ethique. Certes, le mot est là, généralement dans le dernier paragraphe d’un texte qui, après vous avoir présenté la technologie, voire vous l’avoir pré-vendue, proclame (la main sur le coeur si un texte pouvait avoir tel un robot une main et tel un humain un coeur…) que son usage s’accompagnera bien évidemment d’une démarche éthique / d’un respect de l’éthique / d’une réflexion éthique / etc. La “patathétique”, comme Geneviève Laroque et moi nous amusions à nommer ce machin éthique, pathétique patate chaude qu’on transmet systématiquement au prochain… Juste dommage que dans le carton du robot ou de la technologie prête à être installée le lendemain, il manque le sachet de l’éthicien déshydraté qui va en accompagner l’installation. Ou pour le dire de manière moins Pif gadget, juste dommage qu’il manque toujours dans le budget consacré à toutes ces technologies le poste pour que leur arrivée dans le prendre-soin, dans l’établissement, soit accompagnée par d’autres personnes que les techno-installateurs.
Conclusion – Pour un “droit à l’humain” ?
En guise de conclusion, je voudrais d’abord souligner, une dernière fois, à quel point ces technologies ne nous posent que peu de questions en elles-mêmes, mais nous imposent, si nous ne voulons pas qu’elles constituent surtout des problèmes, de nous plonger dans les questions culturelles (psychologiques, anthorpologiques, etc.) et politiques qu’elles entraînent.
Pour ne pas être piégés par les effets de mode, par la forme capitaliste de l’idéologie du progrès, qui pour plagier les shadoks, suit le principe du : “Quand on ne sait pas où l’on va, ni pourquoi on y va, ni à quel prix on y va, mais que cela semble rentable, il faut y aller le plus vite possible.” (Soyons clairs : c’est cette idéologie qui rend possible de trouver plus facilement des financements pour l’achat d’un robot-peluche que pour les salaires de qui, vivant, pourrait être là avec des artistes, des animaux, des végétaux, etc.)
Pour ne pas ignorer que derrière la fascination pour ces technologies, plane la vive inquiétude de les voir particulièrement testées et proposées, voire imposées, aux personnes les moins susceptibles de s’en protéger, de s’en défendre… Enfants, vieux, malades d’Alzheimer… La vulnérabilité de ces publics, auxquels s’ajoutent (rappel) : l’absence d’études sérieuses ; les phénomènes de ségrégation et de discrimination ; leur situation de public captif ; les dimensions éthiques négligées… Bref, tout laisse craindre que ces nouvelles technologies soient utilisées sans discernement, sans prudence, sans respect des droits des personnes, ici bien plus cobayes d’une silver-économie a-humaniste que sujets d’un prendre soin attentionné.
Pour ne pas que les aspects positifs, réels, possibles, que ce soit dans le ludo-éducatif, dans le thérapeutique, le rééducatif, etc., ne nous fassent oublier que, quand même, il est troublant de voir ces machines être de plus en plus envoyées en première ligne (et c’est évidemment exprès que j’emploie ici une image guerrière en pensant à ces robots que nous sommes soulagés d’envoyer à la place des humains pour, par exemple, déminer certains terrains) auprès de ces humains trop vivants, trop vivants parce que trop enfants, trop vieux, trop fragiles, trop sensibles, trop malades, etc.
Y compris les trop vivants parce que trop mourants. Il faut aller voir et entendre la démonstration du “robot de soins palliatifs” (dit : “End of life care machine”) : https://www.youtube.com/watch?v=vDHstslg8Vo
Pour comprendre qu’il est peut être déjà temps – le temps semble pressé face à ceux qui veulent “aller le plus vite possible” – de songer à une forme de “droit à l’humain”, qui serait opposable à qui voudrait imposer une “intelligence artificielle”, “un compagnon artificiel”[28], un “animal artificiel”, un “je-te-tiens-la-main-pendant-que-tu-meurs artificiel”, etc., en lieu et place d’un humain ou d’un animal non-humain ?
A l’hôpital, un patient a le droit de choisir le genre de son soignant. N’aurait-il pas le droit de choisir, avant même le genre de l’humain qui prend soin de lui, entre cet humain et une machine ?
J. Pellissier, 2020.
[1] Voir à ce sujet : https://site.ldh-france.org/nice/category/videosurveillance/
[2] Pendant longtemps, comme l’indique wikipedia dans son article sur les assistants vocaux, l’insulte : « Hey Siri, tu es une salope », était accueilli par l’assistant d’Apple avec la réponse : « Si je pouvais, je rougirais ».
[3] www.agisme.fr
[4] Sous ce terme très excitant de “robot”, Kompaï s’apparente davantage à une sorte de tablette numérique adaptée “malades âgées” (jeux cognitifs, rappel des médicaments à prendre, appel des urgences si souci…) portée par une sorte de super-déambulateur humano-robotoïde. Le tout avec un souci esthétique qui ferait passer les robots de la Guerre des étoiles pour de la statuaire greco-romaine.
[5] Nous publions à la fin de cet ouvrage la charte éthique qu’a élaboré en 2017 l’Institut pour l’Etude de la Relation Homme Robot. Elle permet de mesurer à quel point nombreux sont les principes qu’elle édicte qui ne sont pas respectés en gérontologie et gériatrie.
[6] Car si on accepte l’idée qu’il faut presque toujours un medium avec des personnes dont les maladies peuvent nous mettre aussi mal à l’aise, alors ce qu’il faut travailler c’est l’évaluation des mediums les plus enrichissants et humanisants.
[7] Pour une parodie de poster scientifique qui caricature cette hypothèse par le recours à l’humour noir, cf. : Maladie d’Alzheimer et robots compagnons : plus les robots sont humains, moins les patientes s’y attachent !
[8] Le groupe d’EHPAD que j’évoquais a créé une fondation sur les nouvelles technologies. Le président de son conseil scientifique (S. Guérin) commence ainsi – et tout est dit – l’un de ses discours : “Il ne s’agit pas de se positionner pour ou contre les robots, mais d’évaluer si ce progrès…”
[9] S. Turkle rapporte que dans les recherches autour des robots qu’elle a menées avec ses étudiant.e.s auprès de personnes âgées dans des maisons de retraite, les personnes étaient beaucoup plus sensibles aux étudiant.e.s qui venaient leur présenter les robots qu’aux robots eux-mêmes… Au point que des fabricants, mécontents, en ont brutalement arrêté certaines…
[10] Il y aurait à dire aussi sur le respect, par une partie de ces travaux, d’un certain nombre de règles éthiques minimales… mais ce n’est pas l’objet de ce texte.
[11] A l’époque du Minitel, le serveur d’une agence de pompes funèbres était bien : 3615 DCD.
[12] Si vous avez une idée de la réponse à cette question, répondez par SMS : EREKA ; si vous n’en avez aucune idée, répondez JECPA.
[13] Le mot robot, qui apparaît pour la première fois en 1920 dans un roman de science-fiction, vient du tchèque robota, qui signifie “servage”.
[14] Sans compter leur obsession pour la “chasse aux émotions” (ah, le fameux “Il faut laisser ses émotions à la maison”, ou le “Vous n’êtes pas faite pour ce métier, mademoiselle !” entendu par des milliers de soignantes simplement émues). Ce ne sont donc pas que les ingénieurs japonais qui ont rendu possible les robots soignants, a-émotionnels, ce sont aussi tous les humains qui, depuis un siècle, cherchent à fabriquer des soignants a-émotionnels. Et bien triste ironie de l’histoire que de constater que ces mêmes humains aimeraient sincèrement aujourd’hui que les robots envoyés auprès des patientes, eux, expriment des émotions !
[15] Il se dirait même chez les mauvais esprits qu’un robot psychothérapeute ayant une panne de haut parleur garde un gros avantage sur un psychanalyste lacanien : d’accepter le paiement par carte.
[16] Précisons qu’il existe aussi des chiens, dressés, aptes à prévenir un soignant quand une personne tombe et se retrouve au sol dans une chambre. Ces chiens ne coûtent pas plus cher que d’autres dispositifs, et ces chiens, en relation avec certains usagers, ouvrent beaucoup d’autres chemins…
[17] Voir le livre de Joël Bakan, Nos enfants ne sont pas à vendre. Les Arènes, 2012.
[18] Certains voient tellement désormais l’humain à l’image de ces robots qu’ils ne peuvent plus prêter à l’humain qu’une fonction de super-robot. C’est ainsi que les chercheurs de l’université de Middlesex qui ont présenté en 2018 au Parlement britannique un robot doté d’intelligence artificielle pour “répondre” aux questions (préparées) des députées, lui ont fait répondre à la question de l’utilité et de la place de l’être humain à l’heure des robots : “Les robots auront un rôle important, mais nous aurons toujours besoin des compétences propres aux humains : détecter, concevoir et mettre en valeur la technologie” !
[19] Lesquelles peuvent certes battre un champion d’échecs mais restent par exemple totalement incapables de comprendre des choses aussi simples que ce que je dis quand je dis : “Hier j’ai pleuré en écoutant Schubert .”/ “Hier j’ai pleuré en écoutant Trump.” / “Hier j’ai ri en écoutant Desproges.” / “Hier j’ai ri en écoutant Macron.”).
[20] S. Turckle suppose que nous projetons d’autant plus sur la machine qu’elle est opaque, que son fonctionnement nous est incompréhensible. Autrement dit, peu d’animisme face à une mécanique simple , dont je peux comprendre le fonctionnement si on la démonte et qu’on m’explique. En revanche, animisme quand, même une fois démonté, l’ordinateur me met face à des puces et composants électroniques dont le fonctionnement m’échappe…
[21] Cela dit, et avec une certaine ironie : les concepteurs de robots laisseront peut-être leurs robots plus libres de ne pas les aimer que les parents d’enfants ?
[22] Ici pour des raisons éthiques évidentes. Un faux poster scientifique sur cette étude imaginaire : en ligne également sur ce site : Maladie d’Alzheimer et robots compagnons : plus les robots sont humains, moins les patientes s’y attachent !
[24] Ou à faire croire qu’ils ne sont pas des robots. Par exemple en programmant une intelligence artificielle pour qu’elle réponde de temps en temps “Je ne sais pas” à des questions dont la réponse se trouve immédiatement en consultant l’internet ou une autre source informative.
[25] Mais qui n’est pas inédite. Quand on propose en EHPAD, par exemple, des fausses pièces aménagées en faux cafés des années 50 avec de fausses télévisions des années 50 passant en boucle les (vraies devenues fausses) infos des années 50… on profite bien des troubles liées au syndrome démentiel pour faire prendre aux personnes malades un faux univers pour un vrai.
[26] Le “aussi nombreuses” est en réalité une forme d’ironie désespérée. Le rapport entre les unes et les autres devant être d’au minimum 1 à 1000 (un éthicien, un chercheur en sciences humaines pour mille personnes consacrées à la conception, fabrication, commercialisation, du moindre ersatz animal robotisé…), il suffirait déjà de passer à un rapport de 10 à 1000 pour modifier énormément la situation.
[27] Celles qui existent, notamment celles menées par l’IERHR (Institut pour l’Etude des Relations Homme-Robots) et par quelques autres personnes, sont donc particulièrement précieuses.
[28] Faut-il ajouter une “mère artificielle” ? Qui sait si nous n’aurons pas bientôt le souhait d’un droit de tout futur humain à vivre les X premiers mois de sa vie dans le corps d’un autre humain ?