Quand l’IA invente… et brevette

On connaissait les IAs “journalistes” ou encore l’art assisté par l’IA, cela avait notamment contribué à se poser la question: les systèmes d’IA peuvent-ils inventer? Anathème pour les plus humanistes, révolution pour les plus technophiles.

Au début du mois, la Cour fédérale australienne a considéré que ces systèmes d’IA peuvent bel et bien inventer et qu’ils en ont même, tenez-vous bien, le droit. A l’instar d’un humain qui cherche, crée, invente, un système d’IA peut être nommé comme inventeur à proprement parler dans une demande formelle de brevet.

Cette décision, bien qu’elle ne soit pas définitive (elle fera probablement l’objet d’un appel de la part du commissaire australien aux brevets), constitue à coup sûr un développement intéressant dans le domaine de l’IA et de la protection des brevets.

L’IA protagoniste dans cette affaire est surnommée #DABUS (pour Device for the Autonomous Bootstrapping of Unified Sentience) par son créateur. Ce dernier avait eu moins de succès à faire reconnaître la maternité de l’invention dans d’autres juridictions: les autorités européennes et américaines avaient en effet rejeté les demandes de brevets dans lesquelles elle (ou il?) était nommée inventeur, précisément parce que ces autorités considéraient que seules les personnes physiques peuvent être nommées inventeurs.

Alors, un système d’IA devrait-il avoir le droit d’être nommé inventeur? Si non, qui devrait alors être nommé inventeur d’une invention effectivement découverte par une IA: le programmeur? le propriétaire? la personne qui a fourni les données de base? toutes ces personnes à la fois? Plus important encore, à qui devrait appartenir une telle invention? Il semble admis, du moins pour l’instant, que ce ne devrait pas être le système d’IA. Mais alors qui? et sur quelle bases légales?

 

 

Source

 

De l’interprétabilité du Machine Learning

Jour après jour, l’intelligence artificielle (IA) – et le domaine du machine learning (ML) – nous est présentée comme le futur. Le ML est bel est bien déjà omniprésent dans une foule de domaines mais se heurte régulièrement à un un obstacle de taille: son côté black box ou, formulé autrement, à son manque d’interprétabilité. Comment peut-on donc faire confiance à une telle technologie, même si ses applications sont de plus en plus répandues, si on ne parvient à la décortiquer, à l’expliquer? Qui sera tenu responsable en cas de conséquence néfaste? En gros, comment ça marche?

 

Cette question centrale, de surcroît pour une société civile qui s’empare de la problématique, est abordé par un très intéressant article paru dans The Gradient. Trois raisons principales sont mises en avant pour justifier pourquoi ce thème est important:

  • gagner en confiance: mieux comprendre un mécanisme technologique permet une adoption par un plus grand nombre à plus large échelle;
  • augmenter la sécurité: en se penchant sur les rouages des modèles de ML, on pourrait diagnostiquer certains problèmes plus tôt et offrir davantage de possibilités de remédier à la situation;
  • proposer la possibilité de contester: en décomposant un modèle de ML, on pourrait offrir l’opportunité de faire recours tout au long de chaîne de raisonnement.

 

Selon l’article de Lipton cité dans celui de The Gradient, l’interprétabilité se compose de deux aspects:

  1. la transparence: elle fait référence aux propriétés du modèle qui sont utile de comprendre et qui peuvent être connues avant le début de l’entraînement (de l’apprentissage) du modèle de ML.
    1. Simulability: un humain peut-il suivre pas à pas chaque étape de l’algorithme? On peut par exemple penser à des arbres de décisions ou à des modèes linéaires (au mapping direct) qui facilitent la compréhension.
    2. Decomposability: le modèle est-il interprétable à chaque étape ou en ce qui concerne ses sous-composantes?
    3. Transparence algorithmique: l’algorithme apporte-t-il des garanties? possède-t-il des propriétés facilement compréhensibles (comme le fait de produire un résultat précis)?
  2. l’interprétabilité post-hoc: elle fait référence aux questions une fois que que l’entraînement du modèle de ML est terminé.
    1. Explication du texte: le modèle peut-il expliquer sa décision en langage (humain) naturel, après coup?
    2. Visualisation/explications locales: le modèle peut-il identifier ce qui est/était important pour sa prise de décision?
    3. Explication par l’exemple: le modèle peut-il montrer ce qui, dans les données d’entraînement, est lié à ces input/output?

 

L’auteur de l’article se penche ensuite sur deux aspects qui sont à ses yeux des directions que devrait suivre la recherche sur l’interprétabilité.

  1. Evaluation: trouver de meilleurs moyens d’évaluer ces nombreuses méthodes d’interprétabilité.
  2. Utilité: s’assurer que ces approches d’interprétabilité apportent réellement une valeur ajoutée.

 

Il conclut enfin sur une invitation à poursuivre ces efforts à propos de l’interprétabilité en ML: “Cette tâche requiert une bonne compréhension de la psychologie de l’explication et le savoir-faire technique pour formaliser ces desiderata. Les travaux futurs pourraient se concentrer sur l’amélioration de la manière dont nous évaluons les explications et leur utilité finale pour les utilisateurs et les superviseurs humains.”

 

Ceci est une boîte noire.