Notre charte ethique
Notre charte éthique 2017 : l’IERHR s’engage
L’institut pour l’Etude de la Relation Homme Robot se préoccupe non seulement des nombreuses questions soulevées par le développement de la robotique dans les institutions spécialisées, mais aussi de celles que ce développement posera, à terme, à l’ensemble de la société.
La relation que nous allons nouer avec ces machines est en effet appelée à devenir centrale en psychologie, dans la mesure où nous interagirons avec elles comme avec des humains, tout en sachant que nous ne pourrons pas leur donner les mêmes droits moraux et les mêmes responsabilités qu’à des humains.
Pour s’assurer d’un développement de ces technologies respectueux de tous les hommes, l’IERHR s’est doté d’une charte éthique en cinq points.
Il s’engage non seulement à les respecter dans ses propres interventions, mais aussi à s’associer à tous les combats nécessaires pour les faire respecter.
Ces cinq principes sont les suivants.
Le respect de la liberté de chacun
Notamment en imposant que l’accord sur les conditions d’utilisation d’un robot – en termes de respect de l’intimité et de la vie privée – soit signé par l’utilisateur lui-même, et pas par un tiers, en particulier dans les institutions soignantes ; en faisant en sorte que chacun puisse déplacer et ranger son robot selon sa volonté ; qu’un dispositif visuel rappelle à quel moment chaque machine collecte et transmet les données personnelles de son utilisateur ; et que celui-ci ait facilement accès à l’interrupteur permettant de le déconnecter.
En effet, il est capital de laisser à l’usager d’un robot la liberté de le débrancher s’il le désire, ou de le mettre dans le placard.
Les robots doivent donc être conçus dans ce sens.
Il ne s’agit pas seulement de créer les conditions matérielles pour que cela soit possible, mais aussi d’en créer les conditions psychologiques.
Il est essentiel que l’arrêt du robot ne provoque pas une mise en scène de sa mort subite, par exemple par chute brutale de sa tête sur sa poitrine, qui puisse dissuader les personnes fragiles psychiquement de le débrancher.
La transparence des algorithmes
Notamment en exigeant que l’utilisateur soit informé des objectifs des programmes qui commandent l’IA ou le robot auquel il a affaire, et de l’utilisation de ses données personnelles.
L’autonomie de l’usager
Notamment en encourageant le développement de programmes qui invitent les usagers à entrer en contact entre eux et favorisent la socialisation, et en s’opposant aux programmes susceptibles d’encourager l’isolement social et la « robot-dépendance ».
Autrement dit, il faut toujours préférer des robots « humanisants » à des robots humanoïdes.
La dignité (écarter le risque de confusion entre l’homme et la machine)
Notamment en préconisant qu’une intelligence artificielle se présente toujours comme telle quand on interagit avec elle au téléphone ou sur Internet (pas d’IA se faisant passer pour un humain, explicitement ou par défaut) et en interdisant les publicités toxiques qui prétendent nous vendre des robots « ayant des émotions » ; en demandant qu’une partie de l’intérieur des robots soit toujours visible (protection transparente) pour rappeler leur caractère de machine ; et en veillant à ce que chaque protocole de soin donne lieu à une réflexion sur la pertinence du choix du robot pour le service attendu.
L’égalité de tous dans l’accès aux technologies innovantes
Notamment en fournissant une couverture de santé qui fasse bénéficier l’ensemble de la population de soins de qualité, et en veillant à ce que les données recueillies sur chacun par les objets connectés n’aboutissent pas à l’élaboration de contrats « à la carte » en fonction des risques encourus, en particulier de la part des compagnies d’assurance. Les personnes dont les données révèlent des risques accrus de fragilité, de déficience ou de maladie doivent bénéficier de tous les services de façon identique au reste de la population.
Juin 2017
Le président, Serge Tisseron