« Selon Google, l’intelligence artificielle résoudra les problèmes de l’humanité » : ce titre est celui donné par Anouch Seydtaghia à un article paru, le 28 janvier 2019, dans Le Temps, à la suite des « Applied Machine Learning Days », organisés par l’EPFL. Ce titre, je pense ne pas être le seul à penser ça, m’interpelle dans ce qu’il présuppose ou, plutôt, dans ce que présuppose la position de Jeff Dean, responsable de l’intelligence artificielle (IA) chez Google, qui a donné une conférence lors de ces journées spéciales. En effet, cette position, qui a tous les atours d’un slogan-choc, est ambiguë et ce, sur deux plans :
D’une part, la position de Dean laisse entendre que l’IA, en tant qu’entité autonome, pourrait résoudre ce que nous, êtres pauvrement intelligents, ne sommes pas en mesure de résoudre : l’homme aurait trouvé son sauveur qui, pour une fois, ne descend pas du Ciel mais a été fabriqué par les ingénieurs du monde entier, ceux de Google en particulier. Ce qui me dérange, ici, c’est que, une fois de plus, l’être humain est rabaissé dans ses compétences : il a détruit la planète (les serveurs de Google sont refroidis comment déjà ?), il continue à le faire sans vergogne (cf. les propos absurdes entendus dernièrement pour dénigrer – ou relativiser – la mobilisation des étudiants pour le climat : une belle manière de se donner bonne conscience ou pour dire que « nous », contrairement à « eux », on sait comment se comporter pour sauver la planète), alors heureusement que l’IA veille et nous sauvera de nos égarements… « Sainte IA qui êtes au Cieux, que ton nom… ». Bref. On entend trop souvent ce genre d’inepties ; cela ne choque-t-il que moi ? Ne trouvez-vous pas blessant cette manière subtile de nous déresponsabiliser ? L’humain est-il vraiment trop limité, si peu intelligent (on parle quand même de l’intelligence artificielle) pour prendre en charge son destin – et son Salut ? Selon Google, il lui faut l’IA – en particulier celle créée par les ingénieurs de la multinationale –, purement rationnelle, pour arriver à cette fin…
D’autre part, et cela me frappe encore plus, il est étonnant de voir comment Google, en tant qu’entreprise qui contribue aux progrès de l’IA tout en confiant à cette même IA le soin de nous bercer de publicités ciblées (après avoir récoltées nos données, of course), croit – le mot est bien choisi – aux pouvoirs de l’IA et, par là même, redore son image en tant que société bienveillante. Dean vante les bienfaits des GoogleCars « plus sûres que les véhicules conduits par des humains car capables de voir et d’analyser en permanence les alentours » (dévalorisation, bis), de TensorFlow, un logiciel créé par Google, et, plus généralement, semble avoir fait sien le slogan bien connu de la société ayant donné sa première lettre à l’acronyme GAFA : « Make the world a better place ». Autrement dit, et pour résumer, Jeff Dean nous parle de ses espoirs dans l’IA – j’aurais préféré que les représentants des multinationales du numérique expriment leur confiance en l’humain –, mais le fait-il parce qu’il y croit ou parce qu’il contribue à construire, comme tant d’autres conférences de ce type, une stratégie de marketing qui fait de la société Google une entreprise bienveillante à qui on peut faire confiance… aveuglement (je renvoie le lecteur intéressé à l’excellent ouvrage de Jean-Gabriel Ganascia, Le Mythe de la Singularité, 2017) ? On nous déresponsabilise et on bâtit une position qui creuse encore davantage cette veine ? Non, Monsieur Dean (ou Google, c’est la même chose), l’IA ne résoudra aucun des problèmes de l’humanité : l’homme le fera s’il le souhaite. Et pour qu’il le désire, peut-être peut-on commencer à lui redonner son pouvoir et à croire en lui, non ?