De l’interprétabilité du Machine Learning

Jour après jour, l’intelligence artificielle (IA) – et le domaine du machine learning (ML) – nous est présentée comme le futur. Le ML est bel est bien déjà omniprésent dans une foule de domaines mais se heurte régulièrement à un un obstacle de taille: son côté black box ou, formulé autrement, à son manque d’interprétabilité. Comment peut-on donc faire confiance à une telle technologie, même si ses applications sont de plus en plus répandues, si on ne parvient à la décortiquer, à l’expliquer? Qui sera tenu responsable en cas de conséquence néfaste? En gros, comment ça marche?

 

Cette question centrale, de surcroît pour une société civile qui s’empare de la problématique, est abordé par un très intéressant article paru dans The Gradient. Trois raisons principales sont mises en avant pour justifier pourquoi ce thème est important:

  • gagner en confiance: mieux comprendre un mécanisme technologique permet une adoption par un plus grand nombre à plus large échelle;
  • augmenter la sécurité: en se penchant sur les rouages des modèles de ML, on pourrait diagnostiquer certains problèmes plus tôt et offrir davantage de possibilités de remédier à la situation;
  • proposer la possibilité de contester: en décomposant un modèle de ML, on pourrait offrir l’opportunité de faire recours tout au long de chaîne de raisonnement.

 

Selon l’article de Lipton cité dans celui de The Gradient, l’interprétabilité se compose de deux aspects:

  1. la transparence: elle fait référence aux propriétés du modèle qui sont utile de comprendre et qui peuvent être connues avant le début de l’entraînement (de l’apprentissage) du modèle de ML.
    1. Simulability: un humain peut-il suivre pas à pas chaque étape de l’algorithme? On peut par exemple penser à des arbres de décisions ou à des modèes linéaires (au mapping direct) qui facilitent la compréhension.
    2. Decomposability: le modèle est-il interprétable à chaque étape ou en ce qui concerne ses sous-composantes?
    3. Transparence algorithmique: l’algorithme apporte-t-il des garanties? possède-t-il des propriétés facilement compréhensibles (comme le fait de produire un résultat précis)?
  2. l’interprétabilité post-hoc: elle fait référence aux questions une fois que que l’entraînement du modèle de ML est terminé.
    1. Explication du texte: le modèle peut-il expliquer sa décision en langage (humain) naturel, après coup?
    2. Visualisation/explications locales: le modèle peut-il identifier ce qui est/était important pour sa prise de décision?
    3. Explication par l’exemple: le modèle peut-il montrer ce qui, dans les données d’entraînement, est lié à ces input/output?

 

L’auteur de l’article se penche ensuite sur deux aspects qui sont à ses yeux des directions que devrait suivre la recherche sur l’interprétabilité.

  1. Evaluation: trouver de meilleurs moyens d’évaluer ces nombreuses méthodes d’interprétabilité.
  2. Utilité: s’assurer que ces approches d’interprétabilité apportent réellement une valeur ajoutée.

 

Il conclut enfin sur une invitation à poursuivre ces efforts à propos de l’interprétabilité en ML: “Cette tâche requiert une bonne compréhension de la psychologie de l’explication et le savoir-faire technique pour formaliser ces desiderata. Les travaux futurs pourraient se concentrer sur l’amélioration de la manière dont nous évaluons les explications et leur utilité finale pour les utilisateurs et les superviseurs humains.”

 

Ceci est une boîte noire.

Intelligence artificielle: Hype, Trend ou Game Changer? (partie 4)

Le 17 novembre dernier à Zurich, une conférence de presse annonçait le lancement de la Fondation MindFire. Son but: «free the brain code» comme l’annonçait son président Pascal Kaufmann. Alors, à quand un organisme intelligent qui saura allier corps, esprit et cerveau en une seule et unique entité?

C’est un mariage qui prend de plus en plus forme. Après des débuts collaboratifs, la neuroscience et le monde de l’intelligence artificielle (IA) se sont graduellement séparés, pour mieux se retrouver 30 ans plus tard. Un récent rapport rédigé par Demis Hassabis, le fondateur de DeepMind, explique que les deux domaines se doivent de collaborer plus étroitement afin de de favoriser l’émergence d’avancées décisives. Il cite deux raisons principales. La première: les neurosciences sont une riche source d’inspiration pour de nouveaux types d’algorithmes et d’architectures de réseaux qui peuvent être indépendants ou complémentaires aux méthodes basées sur les mathématiques et la logique qui ont dominé l’approche traditionnelle de l’IA. La seconde: les neurosciences peuvent apporter une validation des techniques IA existantes en confirmant si celles-ci reproduisent correctement des fonctionnements propres à ceux du cerveau. A l’inverse, la recherche en IA peut apporter sa pierre à l’édifice des neurosciences en formalisant des concepts en un langage qui offriront ensuite la possibilité de tester l’intelligence d’un système. On le comprend donc bien: ces champs de recherche ont beaucoup à s’apporter l’un à l’autre.

Dans un entretien avec la revue The Verge, Hassabis s’étend également sur le concept d’«embodied cognition», qui est la base des travaux de DeepMind. Selon lui, cela signifie «qu’un système doit être en mesure de construire sa propre connaissance à partir de principes premiers, tels que ses flux sensoriels et moteurs, et ensuite de créer une connaissance abstraite.» Toutefois, la majeure partie des algorithmes ont suivi la voie de la logique, à savoir que l’IA classique a bien fonctionnée et fait toujours ses preuves lorsque les conditions sont bien définies et que l’algorithme peut se baser sur une marche à suivre précise. Naturellement, ces systèmes spécialisés sont plus faciles à coder. Et la puissance de calcul, combinée à la résilience de la répétition des ordinateurs, sera toujours supérieure aux capacités des êtres humains. Malgré tout, lorsque l’on se penche sur leur habileté à créer des connexions entre différents domaine, ou encore à découvrir de nouvelles choses, innover, créer, seul un système avec une approche plus générale pourra briller à ces exercices en question.

Poursuivant cette réflexion, Pulkit Arawal, informaticien à l’Université de Californie à Berkeley traite dans un article de Quanta Magazine de la notion de curiosité. Il s’y réfère comme «une récompense définie par un agent lui-même afin que ce dernier puisse explorer le monde qui l’entoure.» En psychologie cognitive, il s’agit d’une curiosité dite intrinsèque, par rapport à une motivation externe. Par exemple, en reinforcement learning, une fonction dite de récompense permet d’optimiser une stratégie grâce à la répétition; les bonus et malus de la fonction sont des motivations externes. Pour tout un chacun, c’est cette envie qui pousse à découvrir ce qui n’a pas encore été dévoilé, ce qui est juste hors de portée, afin de savoir ce qui va se passer. Le co-directeur du laboratoire d’IA de Berkeley, Trevor Darrell, insiste sur l’importance d’inculquer cette composante aux algorithmes de machine learning en posant la question suivante: «comment construire une machine qui saura résoudre des tâches indépendamment?» Idéalement, elle n’aura pas besoin d’agent extérieur pour lui dire si telle action est bonne ou mauvaise. Les chercheurs se sont notamment inspirés des comportements d’enfants, dont la curiosité est motivée par ce qu’il ne connaissent pas et qui les surprend.

Toutes ces avancées le démontrent bien: la collaboration entre ces deux spécialités est un cercle vertueux. Aux chercheurs désormais de la faire briller!

Intelligence artificielle: Hype, Trend ou Game Changer? (partie 3)

Rassurons-nous, les robots ne sont pas encore en mesure de rivaliser avec l’humain, du moins pour voir, écouter, sentir, parler, apprendre, ecrire, lire, trouver, découvrir, interpréter. Toutefois, les algorithmes sont d’excellents cerveaux: quand l’élève dépassera-t-il le maître?

A ce jour, une des fonctions les plus humaines, et des plus nécessaires à notre développement, est le sommeil. Parfois cryptiques, les spécialistes s’entendent sur le fait que celui-ci est d’une importance capitale afin de faire le tri dans les informations enregistrées en phase d’éveil: on laisse les événements de moindre intérêt de côté et on construit ses expériences et la compréhension du monde sur le renforcement d’autres de plus grande ampleur. Cela permet notamment de «faire de la place». Aussi, il est encore ardu d’expliquer pourquoi un expert des techniques de mnémotechnique arrive à oublier où il a mis ses clés.

L’approche de la mémoire et de l’oubli est traitée très différemment lorsque l’on considère les robots. En effet, les algorithmes de machine learning (ML) ont encore passablement de mal à déterminer quand garder une vieille information ou quand s’en débarrasser si elle n’est plus d’actualité. Comme le montre cet article de Futurism.com, comprendre comment nos cerveaux décident quelles informations valent la peine d’être retenues et quelles autres sont bonnes à être oubliées est important afin de créer une meilleure intelligence artificielle (IA). Naftali Tishby, informaticien et neuroscientifique à l’Université Hébraïque de Jérusalem insiste que «la part la plus importante de l’apprentissage est l’oubli.» Tout comme les humains, l’IA devrait idéalement se souvenir en premier lieu d’informations importantes et utiles, tout en oubliant les connaissances de moindre importance et tout simplement non pertinentes. Mais comment différencier les bons signaux des mauvais? Les cerveaux adultes, avec les trilliards de connexions reliant leurs 80 à 90 milliards de neurones, s’acharne à cette tâche à chaque instant, alors que les réseaux neuronaux sont sujets à «’oubli catastrophique» en effaçant une ancienne configuration au profit d’une nouvelle qui accomplit une nouvelle tâche.

Avec le progrès technologique galopant, on se rapproche de plus en plus de ces interrogations fondamentales qui apporteront peut-être un jour des éléments de réponses quant aux mécanismes d’apprentissage et d’intelligence. Pour une machine, rappelons-le, déterminer ce qui est pertinent de ce qui ne l’est pas devra également inclure des facteurs liés à l’éthique, au droit et à la vie privée. Lui enseigner cette forme d’humanité anime de nombreux chercheurs et entrepreneurs, dont la startup du MIT iSee qui s’inspire de la science cognitive pour donner aux machines une forme de bon sens ainsi que la capacité de rapidement gérer de nouvelles situations. En effet, leur co-fondateur explique «qu’actuellement, l’IA est principalement guidée par les données et rencontre donc des difficultés à comprendre le bon sens; […] mais on ne peut pas avoir un set de données qui inclut le monde dans son entièreté.»

Alors qu’on tente d’inculquer une forme d’oubli aux algorithmes, Google se focalise déjà sur la prochaine étape qui a pour but d’apprendre aux algorithmes de ML à créer d’autres algorithmes de ML. Il s’agit du projet AutoML qui s’inscrit dans une plus vaste vision de démocratisation de l’utilisation des techniques de l’IA. Comme le souligne Remo Storni de Facebook: «l’ancien paradigme était: ‘ML + données + calcul; le nouveau est plutôt ‘données + 100  x calcul». Ce qui revient à dire que l’on se base moins sur l’expertise des ingénieurs que sur la force brute des ordinateurs en termes de puissance de calcul. En facilitant l’accès à ces techniques computationnelles et en multipliant les utilisations possibles, le monde de l’IA profitera à terme de ces efforts. En effet, plus de projets généreront plus de données qui permettront d’optimiser encore davantage les algorithmes et les rendront encore plus intelligents. On comprend dès lors l’intérêt des géants du secteur à offrir des offres de services dans le «cloud» où tous ces algorithmes traitent de faramineux amas de données. A quand le moment où les ordinateurs proposeront eux-mêmes des algorithmes aux humains? Selon le chercheur Renato Negrinho de l’Université Carnegie Mellon: «il s’agit juste d’une question de quand».

Intelligence artificielle: Hype, Trend ou Game Changer? (partie 2)

Au cours de l’année 2016, la plateforme CB Insights indique 658 transactions dans le domaine de l’intelligence artificielle (IA) pour des montants totaux de plus de 5 milliards de dollars. De quoi donner le vertige et confirmer les ambitions du secteur: innovation, exponentielle, disruption. Toutefois, où se situe-t-on dans la transition et l’implémentation de l’IA?

Pour ne citer que ce géant, Google annonçait dernièrement le déploiement de l’IA dans une armada de gadgets: smartphone, écouteurs pour la traduction instantanée ou encore appareil photo qui se déclenche s’il détecte un visage familier. Ces avancées ancrent dans le réel l’utilisation de cette technologie «plateforme», qui peut être appliquée dans quasiment n’importe quel domaine. Un récent rapport publié par McKinsey propose six caractéristiques définissant les «early AI adopters»:

Une maturité digitale: les entreprises qui sont montées tôt dans le train de l’IA se situent sur le devant de la scène et ont développé une large expertise dans ce domaine, leur conférant ainsi un avantage certain sur leurs concurrents.

Un déploiement au cœur: l’IA est mise en pratique au centre des activités de l’entreprise et de ses compétences intrinsèques (développement de produits, service client, etc.).

Une technologie plateforme: l’IA est déployée sous de nombreuses formes et concerne tout les aspects de l’organisation.

Une perception positive: les innovations liées à l’IA sont sources de revenus, accroissent la productivité et ne sont pas seulement perçues comme une manière de réduire les coûts.

Une taille suffisante: les entreprises plus grandes peuvent se permettre d’investir plus massivement que les plus modestes, ce qui renforce le fossé qui les sépare.

Le soutien des dirigeants: l’adoption de l’IA est défendue aux plus haut niveaux de management de l’entreprise.

Pour donner une perspective plus large, on se plaît à rappeler la loi d’Amara: «on tend à surestimer l’effet d’une technologie à court terme et à sous-estimer ses effets à long terme.» Il faut cependant se souvenir que, comme le rappelle Rodney Brooks du MIT, «quasiment toutes les innovations en robotique et en IA prennent bien plus de temps à être véritablement mises en pratique que ce que les personnes extérieurs à ce milieu ne l’imaginent.»

Les données, un enjeu majeur

Quelques exemples permettent d’illustrer les points ci-dessus: ces cinq dernières années, les dix plus grandes groupes de la tech ont acquis cinquante entreprises d’IA. Google a été parmi les premiers à racheter des jeunes pousses, par exemple DeepMind – 500 millions de dollars en 2014 – pour accélérer ses propres recherches. C’est désormais un des principaux acteurs dans le secteur. En parallèle de ces activités, Google a également lancé une nouvelle unité d’éthique chargée de fera de la recherche autour de six thèmes clé, dont la protection des données, la transparence, l’inclusion ou encore l’égalité face à l’impact économique engendré. Par ailleurs, en s’offrant Evi Technologies en 2013, Amazon a grandement contribué au développement de son assistante virtuelle Alexa. De son côté, Apple a récemment mis le turbo dans ses activités de fusion et acquisition, ce qui n’est pas passé inaperçu. Et Intel, qui a repris des entreprises AI dans le hardware telles que Movidius ou encore Nervana Systems, n’est pas en reste.

Avec l’accroissement des données disponibles – une voiture connectée en génère 25 gigabytes par heure, et 90% des véhicules seront connectés d’ici 2020–, des systèmes plus performants et plus efficaces sont nécessaires pour faire face à «l’amnésie» actuelle des entreprises. En effet, l’écart entre les données recueillies et celles qui sont traitées ne fait que s’accroître. L’interprétation de cette masse sera la clé du succès des entreprises de demain.

Intelligence artificielle: Hype, Trend ou Game Changer? (partie 1)

On excusera ces anglicismes, qui sont inhérents au domaine. Ils ont d’ailleurs été partagés par les co-fondateurs de SwissCognitive lors d’une récente table ronde. Ce «WEF de l’intelligence artificielle» était de passage à Boston afin de promouvoir l’excellence de la Suisse dans ce domaine.

Puisque la puissance de calcul de nos ordinateurs a été démultipliée, notamment grâce à la loi de Moore et aux fameux processeurs NVIDIA, on lit désormais que les Google, Facebook, Microsoft, IBM ou encore Amazon de ce monde s’aguerrissent au machine learning. Malgré la fréquence d’utilisation de ce mot à la mode, reprenons les définitions que d’aucuns qualifieront de trop simplistes.

Avec le machine learning, il s’agit, d’une certaine façon, d’enseigner aux ordinateurs à apprendre, voire de leur montrer comment apprendre par eux-mêmes. Descendant dans les catégories, vient ensuite le supervised learning, qui s’applique à un ensemble de données labelisées, par différenciation au unsupervised learning. Une autre technique computationnelle, appelée deep learning, implique l’utilisation d’un très large réseau neuronal («neuron») afin de reconnaître des structures dans un grand nombre de données. De temps à autre, surtout dans le milieu des véhicules autonomes, on mentionne aussi le reinforcement learning: pendant la phase d’entraînement, un logiciel de contrôle répète une tâche un très grand nombre de fois et modifie légèrement ses instructions à chaque essai; il met à jour ses valeurs à mesure que le système apprend.

Ces avancées représentent un pas de géant par rapport aux désavantages d’une intelligence artificielle (IA) «basique» qui requiert un nombre important de règles à implémenter dans le code informatique et «qui montre rapidement des faiblesses lorsque l’on travaille avec des cas aux limites», comme le rappelle Phil Greenwald des Laboratoires de l’Innovation d’Harvard.

Vers une intelligence inexplicable

On comprendra que l’on est entré dans une phase où la machine se programme par elle-même: on pourrait donc parler d’une intelligence augmentée! Et cela peut donner quelques frissons, d’excitation quand on pense aux fantastiques opportunités que cela offre, mais aussi de peur si l’on pense à des scénarios post-apocalyptiques robocopiens. Une des facettes intrigantes du fonctionnement de tels systèmes est qu’il n’y a pas de moyen clair pour les designer afin qu’ils puissent toujours expliquer la logique qui les a mené aux résultats. A l’instar des comportements humains, qui sont souvent impossibles à expliquer en détails, il ne sera peut-être pas possible de comprendre pleinement le fonctionnement de cette forme d’intelligence computationnelle. Comme le souligne le Prof. Clune de l’Université du Wyoming: «c’est peut-être la part ‘naturelle’ de l’intelligence. Si seulement une partie est sujette à une explication rationnelle, une partie est peut-être uniquement instinctive, ou subconsciente, ou insondable.» Certains experts pensent même que l’intelligence pourrait plus facilement émerger si les machines s’inspiraient de la biologie et apprenaient par le biais de l’observation et de l’expérience. D’autres, comme les chercheurs du MIT derrière l’idée de la «Machine Morale», pensent qu’un système qui agrège des points de vue moraux de différentes personnes «pourrait déboucher sur un système moralement meilleur que celui d’un seul individu.» Le professeur de droit James Grimmelmann de Cornell suggère même que «cela rend l’IA plus ou moins éthique, au même titre qu’un grand nombre de personne est éthique ou ne l’est pas».

Mais revenons à des considérations plus pratiques. Alors qu’IBM vient d’investir 240 millions de dollars dans un partenariat avec le MIT pour continuer ses recherches en IA, les récentes critiques à l’encontre de son outil Watson offrent un exemple criant de la difficulté à mettre l’IA au service de la santé. Dans une profonde analyse, le projet STAT du Boston Globe relève le côté boîte noire de la technologie: «actuellement, IBM Watson fournit des preuves à l’appui des recommandations qu’il suggère, mais n’explique aucunement de quelle manière il en est venu à proposer un traitement spécifique pour un patient donné.» Des spécialistes s’insurgent contre la confiance aveugle placée dans des résultats dont les données de base n’ont pas été comprises. Dans le monde de la santé, c’est un risque tentant: gain de temps, accès à des très larges bases de données, etc. Cependant, le monde est encore à un stade où la responsabilité personnelle prime, ce qui explique pourquoi le machine learning est encore utilisé de concert avec un médecin. Mark Michalski du MGH&BWH Center for Data Science relève qu’ «il est nécessaire d’établir une relation de confiance avec cette technologie disruptive dans une industrie très conservatrice.» Katherine Andriole, professeur en radiologie à la Harvard Medical School, pose la situation: «Il se passe beaucoup plus qu’une simple perception, qu’une reconnaissance de motifs: les radiologues font appel à leurs capacités cognitives.» Cela pourrait rapidement changer. Que l’on soit averti. Un exemple helvète: retinAI qui permet d’atteindre, grâce à l’IA, le niveau de professionnalisme d’un ophtalmologue pour la détection de glaucomes ou de dégénérescence maculaire liée à l’âge.

On retiendra un énorme point positif: l’IA nous fait entrer dans une ère «orientée vers les données», ce qui, à terme, nous permettra de prendre des décisions éclairées par la forces des faits.