Intelligence artificielle: Hype, Trend ou Game Changer? (partie 3)

Rassurons-nous, les robots ne sont pas encore en mesure de rivaliser avec l’humain, du moins pour voir, écouter, sentir, parler, apprendre, ecrire, lire, trouver, découvrir, interpréter. Toutefois, les algorithmes sont d’excellents cerveaux: quand l’élève dépassera-t-il le maître?

A ce jour, une des fonctions les plus humaines, et des plus nécessaires à notre développement, est le sommeil. Parfois cryptiques, les spécialistes s’entendent sur le fait que celui-ci est d’une importance capitale afin de faire le tri dans les informations enregistrées en phase d’éveil: on laisse les événements de moindre intérêt de côté et on construit ses expériences et la compréhension du monde sur le renforcement d’autres de plus grande ampleur. Cela permet notamment de «faire de la place». Aussi, il est encore ardu d’expliquer pourquoi un expert des techniques de mnémotechnique arrive à oublier où il a mis ses clés.

L’approche de la mémoire et de l’oubli est traitée très différemment lorsque l’on considère les robots. En effet, les algorithmes de machine learning (ML) ont encore passablement de mal à déterminer quand garder une vieille information ou quand s’en débarrasser si elle n’est plus d’actualité. Comme le montre cet article de Futurism.com, comprendre comment nos cerveaux décident quelles informations valent la peine d’être retenues et quelles autres sont bonnes à être oubliées est important afin de créer une meilleure intelligence artificielle (IA). Naftali Tishby, informaticien et neuroscientifique à l’Université Hébraïque de Jérusalem insiste que «la part la plus importante de l’apprentissage est l’oubli.» Tout comme les humains, l’IA devrait idéalement se souvenir en premier lieu d’informations importantes et utiles, tout en oubliant les connaissances de moindre importance et tout simplement non pertinentes. Mais comment différencier les bons signaux des mauvais? Les cerveaux adultes, avec les trilliards de connexions reliant leurs 80 à 90 milliards de neurones, s’acharne à cette tâche à chaque instant, alors que les réseaux neuronaux sont sujets à «’oubli catastrophique» en effaçant une ancienne configuration au profit d’une nouvelle qui accomplit une nouvelle tâche.

Avec le progrès technologique galopant, on se rapproche de plus en plus de ces interrogations fondamentales qui apporteront peut-être un jour des éléments de réponses quant aux mécanismes d’apprentissage et d’intelligence. Pour une machine, rappelons-le, déterminer ce qui est pertinent de ce qui ne l’est pas devra également inclure des facteurs liés à l’éthique, au droit et à la vie privée. Lui enseigner cette forme d’humanité anime de nombreux chercheurs et entrepreneurs, dont la startup du MIT iSee qui s’inspire de la science cognitive pour donner aux machines une forme de bon sens ainsi que la capacité de rapidement gérer de nouvelles situations. En effet, leur co-fondateur explique «qu’actuellement, l’IA est principalement guidée par les données et rencontre donc des difficultés à comprendre le bon sens; […] mais on ne peut pas avoir un set de données qui inclut le monde dans son entièreté.»

Alors qu’on tente d’inculquer une forme d’oubli aux algorithmes, Google se focalise déjà sur la prochaine étape qui a pour but d’apprendre aux algorithmes de ML à créer d’autres algorithmes de ML. Il s’agit du projet AutoML qui s’inscrit dans une plus vaste vision de démocratisation de l’utilisation des techniques de l’IA. Comme le souligne Remo Storni de Facebook: «l’ancien paradigme était: ‘ML + données + calcul; le nouveau est plutôt ‘données + 100  x calcul». Ce qui revient à dire que l’on se base moins sur l’expertise des ingénieurs que sur la force brute des ordinateurs en termes de puissance de calcul. En facilitant l’accès à ces techniques computationnelles et en multipliant les utilisations possibles, le monde de l’IA profitera à terme de ces efforts. En effet, plus de projets généreront plus de données qui permettront d’optimiser encore davantage les algorithmes et les rendront encore plus intelligents. On comprend dès lors l’intérêt des géants du secteur à offrir des offres de services dans le «cloud» où tous ces algorithmes traitent de faramineux amas de données. A quand le moment où les ordinateurs proposeront eux-mêmes des algorithmes aux humains? Selon le chercheur Renato Negrinho de l’Université Carnegie Mellon: «il s’agit juste d’une question de quand».

Une réponse à “Intelligence artificielle: Hype, Trend ou Game Changer? (partie 3)

  1. L’I.A. peut apprendre , certes, mais elle ne fait que suivre des schémas inventés par les hommes. Elle ne peut pas créer des algorithmes en partant de rien. De plus , l’IA ne possède aucune conscience de ce qu’elle fait, ses résultats ne sont qu’une suite de chiffres et rien d’autre, elle ne se rend pas compte des conséquences des décisions qu’elle prend.
    Quand un robot tient un oeuf , il sait mesurer la pression pour ne pas le briser, mais il n’a aucune sensation comparable à une main humaine, il ne se rendra même pas compte si l’oeuf reste entier ou s’il s’est brisé et ne sait pas comment casser un oeuf proprement pour en faire une omelette ,…
    Il y a un gouffre entre les possibilités humaines et celles des robots actuels et comme nous sommes encore incapables d’expliquer le cerveau , il me parait difficile de pouvoir le dépasser avant très longtemps .
    Je ne vois pas comment on peut synthétiser la créativité ou l’intuition et je ne pense pas que ce soit utile de créer des robots pour remplacer l’homme dans toute les circonstances, comme singer des émotions …
    Laissons les robots à leurs tâches de répétition et laissons aux hommes le contrôle des schémas et le choix des décisions finales !
    Le discours purement technocratique manque de hauteur de vue et reste cloisonné dans les laboratoires, il faut savoir penser un peu plus loin que la performance absolue des microprocesseurs !

Les commentaires sont clos.