Le 17 novembre dernier à Zurich, une conférence de presse annonçait le lancement de la Fondation MindFire. Son but: «free the brain code» comme l’annonçait son président Pascal Kaufmann. Alors, à quand un organisme intelligent qui saura allier corps, esprit et cerveau en une seule et unique entité?
C’est un mariage qui prend de plus en plus forme. Après des débuts collaboratifs, la neuroscience et le monde de l’intelligence artificielle (IA) se sont graduellement séparés, pour mieux se retrouver 30 ans plus tard. Un récent rapport rédigé par Demis Hassabis, le fondateur de DeepMind, explique que les deux domaines se doivent de collaborer plus étroitement afin de de favoriser l’émergence d’avancées décisives. Il cite deux raisons principales. La première: les neurosciences sont une riche source d’inspiration pour de nouveaux types d’algorithmes et d’architectures de réseaux qui peuvent être indépendants ou complémentaires aux méthodes basées sur les mathématiques et la logique qui ont dominé l’approche traditionnelle de l’IA. La seconde: les neurosciences peuvent apporter une validation des techniques IA existantes en confirmant si celles-ci reproduisent correctement des fonctionnements propres à ceux du cerveau. A l’inverse, la recherche en IA peut apporter sa pierre à l’édifice des neurosciences en formalisant des concepts en un langage qui offriront ensuite la possibilité de tester l’intelligence d’un système. On le comprend donc bien: ces champs de recherche ont beaucoup à s’apporter l’un à l’autre.
Dans un entretien avec la revue The Verge, Hassabis s’étend également sur le concept d’«embodied cognition», qui est la base des travaux de DeepMind. Selon lui, cela signifie «qu’un système doit être en mesure de construire sa propre connaissance à partir de principes premiers, tels que ses flux sensoriels et moteurs, et ensuite de créer une connaissance abstraite.» Toutefois, la majeure partie des algorithmes ont suivi la voie de la logique, à savoir que l’IA classique a bien fonctionnée et fait toujours ses preuves lorsque les conditions sont bien définies et que l’algorithme peut se baser sur une marche à suivre précise. Naturellement, ces systèmes spécialisés sont plus faciles à coder. Et la puissance de calcul, combinée à la résilience de la répétition des ordinateurs, sera toujours supérieure aux capacités des êtres humains. Malgré tout, lorsque l’on se penche sur leur habileté à créer des connexions entre différents domaine, ou encore à découvrir de nouvelles choses, innover, créer, seul un système avec une approche plus générale pourra briller à ces exercices en question.
Poursuivant cette réflexion, Pulkit Arawal, informaticien à l’Université de Californie à Berkeley traite dans un article de Quanta Magazine de la notion de curiosité. Il s’y réfère comme «une récompense définie par un agent lui-même afin que ce dernier puisse explorer le monde qui l’entoure.» En psychologie cognitive, il s’agit d’une curiosité dite intrinsèque, par rapport à une motivation externe. Par exemple, en reinforcement learning, une fonction dite de récompense permet d’optimiser une stratégie grâce à la répétition; les bonus et malus de la fonction sont des motivations externes. Pour tout un chacun, c’est cette envie qui pousse à découvrir ce qui n’a pas encore été dévoilé, ce qui est juste hors de portée, afin de savoir ce qui va se passer. Le co-directeur du laboratoire d’IA de Berkeley, Trevor Darrell, insiste sur l’importance d’inculquer cette composante aux algorithmes de machine learning en posant la question suivante: «comment construire une machine qui saura résoudre des tâches indépendamment?» Idéalement, elle n’aura pas besoin d’agent extérieur pour lui dire si telle action est bonne ou mauvaise. Les chercheurs se sont notamment inspirés des comportements d’enfants, dont la curiosité est motivée par ce qu’il ne connaissent pas et qui les surprend.
Toutes ces avancées le démontrent bien: la collaboration entre ces deux spécialités est un cercle vertueux. Aux chercheurs désormais de la faire briller!