Si admirable, « indépendant », « intelligent », « génial » que puisse être un robot, il ne sera jamais une personne ; la langue doit exprimer fermement cette impossibilité. Il est donc hors de question de qualifier un robot de « personne électronique », contrairement à ce que semblerait suggérer une résolution de députés européens, ainsi que nous l’apprend Le Temps de ce 30 janvier. Un robot n’est qu’une machine, extraordinaire, mais machine quand même, qui ne peut avoir ni droits ni obligations. Il sera même toujours inférieur à l’animal qui n’est pas non plus une personne, si indépendant qu’il puisse être.
Que l’Union européenne se préoccupe de la responsabilité de l’inventeur, du fabricant, du vendeur, du propriétaire de robots plus ou moins autonomes, c’est très bien – elle ne devrait d’ailleurs pas être la seule à le faire. Cela met en évidence la responsabilité fondamentale de l’inventeur qui ne peut pas se contenter de «construire quelque chose de merveilleux » et se désintéresser ensuite de ce que cela devient et de l’usage qui pourrait en être fait. Nous touchons du doigt le même genre de phénomène que celui en rapport avec l’inventeur de la bombe atomique. Le développement des robots et leur sophistication sont l’occasion ou jamais d’insister sur la responsabilité morale et pratique du chercheur. Sa démarche, si passionnante soit-elle, peut avoir des conséquences dont il doit être le premier à évaluer les dangers et, peut-être, à en assumer les suites. Rejeter sur «l’objet de sa découverte » la responsabilité d’une déviance fortuite, en le qualifiant, par exemple, de « personne », cela équivaudrait à se camoufler lâchement derrière une tromperie linguistique.