Il est beaucoup question de robots en ce moment. Le petit NAO est déjà présent dans de nombreux foyers pour personnes âgées et les quelques milliers d’exemplaires de Pepper proposés à la vente au Japon ont été achetés en moins d’une minute. Mais comment allons-nous considérer ces machines ? Comme des sortes de nouveaux animaux domestiques mieux éduqués et disposant d’une intelligence supérieure ? Ou bien comme de simples objets qu’on se contentera de changer le jour où ils seront endommagés ? La chercheuse au MIT Kate Darling propose quant à elle que les robots bénéficient de lois qui les protègent contre la maltraitance.
Nos objets ont-ils des émotions ? Oui, les nôtres
Les robots resteront pendant longtemps des machines à simuler, et rien ne nous permettra d’affirmer qu’ils souffrent au sens que cela a pour nous, même s’ils sont programmés pour avoir des attitudes de retrait. Il sera en effet important qu’ils aient la capacité de se protéger de tout ce qui pourrait les endommager, comme de retirer leur main d’une plaque chauffante sur laquelle ils l’auraient posée par inadvertance ou ignorance du danger. La proposition de Kate Darling ne vise donc pas à protéger les robots de la douleur qu’ils pourraient ressentir, mais de protéger les humains qui en auraient la charge de la douleur qu’ils pourraient leur imaginer et qu’ils pourraient vivre par procuration, un peu comme une mère souffre de la souffrance qu’elle voit éprouver par son enfant. Voir son robot agressé, ou perdre un bras dans un accident pourrait affecter son propriétaire autant que s’il s’agissait d’un être humain.
Constatons d’abord que la tendance de l’être humain à prêter des émotions et des sensations aux objets qui l’entourent n’est pas nouvelle. Ma mère avait une relation très affective avec son automobile. Elle était bouleversée quand la carrosserie était endommagée comme si cela avait affecté son identité. Et un jour où elle est allée au garage alors que la réparation n’était pas terminée, elle a découvert une partie de sa voiture sans la carrosserie. Elle en a été presque traumatisée. Sa réaction concernait une simple automobile qui n’avait pas d’autre fonction que de la transporter d’un lieu à un autre. Mais comment pourrait-elle réagir à découvrir la mécanique intérieure d’un robot domestique dont elle aurait fait son ami, son confident et son conseiller ? Les problèmes que posent les robots ne sont pas nouveaux. Ils existent depuis que l’homme invente des outils pour le servir. Mais les robots vont généraliser et accentuer des attitudes qui étaient jusqu’ici à la marge et ne concernaient qu’une fraction réduite de la population.
Un problème crucial avec les robots
Des études ont révélé que des soldats américains utilisant des robots démineurs ont tendance à les traiter parfois comme des animaux domestiques, voire comme des humains, bien qu’ils sachent évidemment très bien qui ne s’agit que de machines. Certains d’entre eux leur donnent un nom, les personnalisent avec divers autocollants, et lorsque leur robot est endommagé, ils peuvent en souffrir comme si eux-mêmes avaient été blessés. L’ingénieur Max Tilden raconte même qu’un colonel aurait déclaré « inhumain » le fait qu’un robot démineur en forme d’insecte muni de plusieurs pattes s’en fasse exploser une sur chaque mine qu’il rencontre. Ils s’agit pourtant souvent de soldats aguerris. Qu’en sera-t-il lorsque des robots domestiques seront installés chez des personnes âgées ou dans des chambres pour enfants. Comment faire que nous ne courions pas le risque de souffrir de la souffrance que nous imaginerions à nos robots ?
Kate Darling répond donc en proposant que des lois protègent les robots contre toutes formes de maltraitance, dans le but de nous protéger nous-mêmes du risque de souffrir de les voir malmenés. Pourtant, à mon avis, cela ne ferait qu’aggraver le risque de quiproquos entre simulation et émotions.
L’éducation plutôt que la législation
Le problème, avec les robots, c’est qu’ils ne sont pas destinés à avoir une seule fonction, mais plusieurs. Et que la sensibilité à leur souffrance n’est qu’un élément particulier d’un problème général, la tendance à leur imaginer des émotions semblables aux nôtres, dont les sensations corporelles seraient la condition. Encouragez l’idée que les robots souffrent, et vous ne pourrez plus mettre de frein au fait qu’ils puissent ressentir des émotions. Avec le risque d’oublier qu’ils seront connectés en permanence à leurs fabricants qui pourront disposer de nos données personnelles à leur guise.
C’est pourquoi je vois beaucoup plus la solution dans le fait d’encourager les enfants, dès l’école primaire, à construire et programmer des robots, de manière à apprendre à les considérer comme des machines et pas comme des êtres vivants.
Et pour les métiers qui impliquent une forte proximité avec les robots, il pourra être utile d’en écarter les personnes qui ont le plus tendance à leur prêter des émotions et des sensations identiques aux leurs.
Serge Tisseron