4-1 : Les Algorithmes auto-apprenantes sortent gagnantes!

Une nouvelle étape a été franchie dans la quête d'une Intelligence Artificielle Supérieure !

En mai 1997, Deep Blue (IBM) a battu Kasparov au jeu d'échec. Pour la première fois de l'histoire, le champion du monde de l'époque a du s'incliner contre l'ordinateur sur le score de 2½ à 3½. A ce moment là, Deep Blue mesurait 1,80 m et pesait 1,4 tonne. Il fallait vingt personnes pour qu'il fonctionne et son logiciel fonctionnait sur la base des "systèmes experts" qui a l'époque, était ce que l'on faisait de mieux en Intelligence Artificielle. Grâce à son incroyable force de calcul, Deep Blue a joué lors de ce match quelques coups de la classe d'un grand maître dont l'un, abondamment commenté dans les revues spécialisées, a complètement déstabilisé Kasparov.

Mais aujourd'hui ce qu'a présenté Google dans l'affrontement au jeu de Go à Séoul est d'un tout autre ordre… c'est une machine en réseau qui sait apprendre!

DeepMind: une machine de Turing neural auto-apprenante

Un des défis que tente de relever DeepMind est de réaliser une mémoire à court terme similaire à celle du cerveau humain. Le système développé est un type de réseau de neurones qui a été adapté pour fonctionner avec une mémoire externe. Le résultat est un ordinateur qui apprend en stockant des souvenirs et en les réutilisant pour effectuer des tâches logiques qu’il ne saurait faire autrement. Comme cette forme de calcul diffère de manière importante d'un réseau neuronal classique, DeepMind lui a donné un nouveau nom : une machine de Turing neurale. La machine de Turing neurale apprend comme un réseau neuronal classique en utilisant les entrées qu'il reçoit du monde extérieur mais qui apprend aussi à stocker ces informations et à les récupérer.

Deep reinforcement learning

DeepMind combine la technique d’apprentissage automatique de "machine learning" avec une technique d'apprentissage renforcée. La technique est nommée Deep reinforcement learning. Le logiciel apprend en effectuant des actions et en observant les effets et conséquences, de la même manière que les humains ou les animaux. Mais jusqu'au tournoi de Séoul, personne n’avait réussi à construire un système capable de réaliser des actions aussi complexes que jouer au Go. Une partie du processus d'apprentissage consiste à analyser les expériences passées à plusieurs reprises pour tenter d’extraire des informations plus précises pour agir plus efficacement à l'avenir. Ce mécanisme est très proche de ceux qui ont lieu dans le cerveau humain, notamment parce qu'il s'auto-alimente en savoir/expérience en jouant/réfléchissant tout seul. Un peu comme lorsque l'on dort/sommeille…l'esprit continue à travailler.

Deep Health

Dorénavant nous avons deux approches qui s'affrontent pour prendre la position de "sur-traitance" dans l'économie de la Santé. D'un côté, Google Health qui mise sur des machines d'auto-apprentissage et de l'autre IBM/Watson Health qui a choisi le chemin des Big Data et du Data Analytic. Ce qui s'affronte ici, c'est le savoir en mode apprentissage contre le savoir accumulé…

Devinez qui va gagner?

C'est fait: c'est les système auto-apprenant de type Deep Learning….

Xavier Comtesse

Xavier Comtesse

Dans les années 70/80, Xavier Comtesse est le co-créateur de trois start-ups à Genève: les éditions Zoé, la radio locale Tonic et «Le Concept Moderne». Il est ensuite haut fonctionnaire à Berne auprès du Secrétaire d'État à la Science avant de rejoindre l'Ambassade Suisse à Washington comme diplomate. En 2000, il crée la première Swissnex à Boston puis rejoint le Think Tank «Avenir Suisse». En 2015 il lance avec quelques experts «HEALTH@LARGE», un nouveau Think Tank sur la santé numérique. Il est mathématicien et docteur en informatique.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *