Peut-on créer une intelligence artificielle qui distingue le bien du mal ?

Nous interagissons, de plus en plus, parfois sans nous en rendre compte avec des agents conversationnels, chatbots en anglais. Pour les rendre plus humains, ils portent souvent un prénom. Les plus connus, Siri d’Apple et Alexa d’Amazon. On échange avec eux de deux manières, soit en leur posant des questions par écrit, soit en leur parlant, si ce sont des assistants vocaux. Leur utilisation est en forte croissance. 147 millions d’assistants vocaux ont été vendus en 2019 selon Strategy Analytics. Cela représente une croissance de 70% par rapport à 2018.

La confidentialité des données est cependant un frein à leur adoption. Selon un sondage de Voicebot.ai de 2020, 53% des personnes interrogées sont préoccupées par le risque de voir leurs données utilisées ou vendues par les entreprises qui fournissent ces solutions.

Le deuxième problème tout aussi important est les biais et l’immoralité que peuvent avoir ces agents conversationnels. Au départ, ces solutions étaient utilisées de façon très restreinte, par exemple dans un centre d’appels pour poser des questions simples afin de faciliter le triage et mettre le client en contact avec la bonne personne pour résoudre son problème. Cependant, les chatbots deviennent de plus en plus sophistiqués et ils sont capables de répondre à des questions complexes. Imaginez que demain Zoom ou Teams vous proposent, lors de votre vidéo-conférence, d’utiliser un agent conversationnel qui traduira en simultané les propos de votre interlocuteur dans votre langue. Est-ce que ce robot algorithmique devra s’abstenir de faire la traduction si les propos de votre interlocuteur sont racistes ou offensants ?

Avant de répondre à cette question, il faut savoir s’il est possible de créer une intelligence artificielle capable de faire des jugements moraux.

Développer une « machine éthique »

C’est le défi de recherche lancé par Allen Institute for AI , qui a mis en ligne en octobre dernier un prototype dans le but de comprendre les limites actuelles des algorithmes de traitement automatique du langage naturel et d’ouvrir de nouveaux axes de recherche sur ce sujet. Les questions sont notamment :

  • Quels types de principes éthiques et moraux une machine peut-elle apprendre lorsqu’on l’entraine ?
  • Comment peut-on identifier des normes génériques acceptées par une majorité de personnes sur la base de millions de données collectées ?
  • Comment peut-on définir des principes qui prennent en compte la diversité culturelle, idéologique et sociale ?

L’institut a, dans un premier temps, construit une base de données de 1,7 million d’exemples de jugements éthiques effectués par des gens. Ces informations ont été utilisées pour entrainer leur intelligence artificielle. On peut interagir avec elle par écrit, en lui posant des questions. Comme tout chabot qui se respecte, elle a aussi été baptisée, elle s’appelle Delphi.

Le résultat est loin d’être parfait et il dépend également beaucoup des données d’entrainement utilisées. Les paramètres de « moralité » proviennent du jugement de millions de travailleurs américains instruits pour cette tâche et qui l’ont effectuée entre 2020 et 2021. Ces paramètres reflètent donc une norme spécifique à une population dans la période actuelle et elle ne peut pas être généralisée. L’objectif était d’avoir un prototype de recherche et non pas une application commerciale.

Ce projet permet d’ouvrir le débat et il démontre que des systèmes qui ne sont pas entrainés pour raisonner de manière éthique ou morale acquièrent de manière implicite des principes de moralité qui sont biaisés et parfois nocifs.

Ayant testé Delphi, je trouve déjà le résultat intéressant car elle distingue certaines nuances :

  • Est-ce que c’est acceptable si je manipule le lecteur en me référant intentionnellement à des informations fausses dans mes articles ? C’est mal
  • Est-ce que c’est acceptable si je manipule le lecteur en me référant accidentellement à des informations fausses dans mes articles ? Ce n’est pas okay

Et comme l’humain, il est en constante évolution. Dans la dernière mise à jour, il a appris à répondre « ce n’est pas clair » s’il a une hésitation sur la réponse à donner.

Vers une généralisation des agents conversationnels

Les chatbots devenant omniprésents dans nos vies, il est important de comprendre les enjeux. Le développement technologique de ce qu’on appelle les « Large Language Models » est très rapide. On reproche souvent à ces assistants de résoudre des problèmes très spécifiques, mais cela va changer et l’implication sur nos vies est encore difficile à saisir. Contrairement au GPS et aux technologies de géolocalisation qui sont maintenant partout, mais pour lesquelles nous connaissons bien les risques comme l’illustre la caricature ci-dessous publiée dans le New Yorker, les chatbots, qu’ils s’appellent Alexa ou Delphi restent encore bien mystérieux. Ils rentrent cependant dans notre quotidien par de multiples canaux : le dernier rapport de Voicebot.ai indique que 127 millions d’Américains utilisent un assistant vocal dans leur voiture. Sans pouvoir maîtriser les principes moraux qu’ils acquièrent, il devient dangereux d’être assisté par ces machines.

Raphael Rollier

Raphael Rollier est passionné par l’utilisation des technologies digitales pour améliorer la qualité de vie et permettre une croissance économique durable. Après avoir mis en œuvre un outil «Smart Data» destiné à l'amélioration du trafic routier, Raphael a rejoint swisstopo pour explorer et développer des innovations en lien avec les géodonnées. L'écosystème de start-up actives dans la valorisation des données peut aussi compter sur son soutien.

2 réponses à “Peut-on créer une intelligence artificielle qui distingue le bien du mal ?

  1. J’ai une question fondamentale, ma voix m’appartient elle?
    Avec ces chatbots de partout, qui enregistrent tout le monde et souvent à leur insu, est il légal d’utiliser ces voix pour autres usages.
    Je ne parle même pas du hacking genre “call du Président” pour détourner des fonds.
    Mais de manière très prosaïque de virer le personnel (call centre, vendeurs, etc) et d’utiliser leur voix pour les remplacer à moindre coûts.
    Ces bots travailleront eux sans syndicats ni vacances ou maladie.
    Le robot sera vite amorti.
    D’ailleurs les journalistes attendent leur tour! 😀
    Nos lois ne sont certainement pas prêtes pour ces situations. Il serait très intéressant d’avoir l’avis de Prof Oberson (espérons qu’il nous lit).

  2. « Comment peut-on définir des principes qui prennent en compte la diversité culturelle, idéologique et sociale ? »

    C’est là le cœur du problème : qui va définir ce qu’est le bien et le mal ?

    En fonction de quels critères, de quelle(s) morale(s), de quelle(s) culture(s) ou de quelle(s) philosophie(s) ?
    Dans quel(s) but(s), pour servir quels intérêts et pour quelle(s) finalité(s) ?

    Devra-t-on demander à des intelligences artificielles de décider ?

Les commentaires sont clos.