DIGITALE ATTITUDE : Un nouveau média, Knowhere, utilise l’intelligence artificielle pour agréger les nouvelles et les réécrire en toute impartialité.
L’intelligence artificielle (IA) est déjà couramment utilisée par les journaux pour automatiser des tâches rédactionnelles. Des algorithmes, nourris par l’analyse de données chiffrées, sont capables de rédiger des textes narratifs intégrant des résultats sportifs, électorales ou boursiers. Il existe même un algorithme au Los Angeles Times qui génère des chroniques sur les homicides d’après les rapports factuels fournis par le bureau du médecin légiste.
Mais un nouveau média lancé le 4 avril dernier, baptisé Knowhere, (ou Savoir Où en français), utilise l’IA autrement. Pour rédiger des articles avec impartialité.
La technologie utilisée par cette start-up Californienne, intègre le traitement automatique du langage naturel, et identifie les sujets populaires du moment après avoir parcouru une longue liste prédéfinie de publications réputées de tous bords, du New York Times à Breitbart et Infowars. Puis, à très grande vitesse, le système balaye les contenus et rédige des billets. Ensuite, deux éditeurs révisent ce que le logiciel propose, pour améliorer le style et la grammaire.
L’actualité politique, souvent controversée, est proposée en trois versions, clairement identifiées avec les surtitres «impartial», «droite» et «gauche», sous-entendu de l’échiquier politique, afin de fournir des points de vue divergents – mais dont les faits essentiels sont les mêmes. Pas de Fake News ici. C’est tout l’enjeu de ce média.
La dissémination de fausses nouvelles, le scandale de la campagne de désinformation menée par la Russie sur les réseaux sociaux, sont tous des phénomènes qui ont été exacerbés par la rapidité, la portée, et l’abondance d’informations diffusées sur Internet. Un volume de données impossible à gérer par un être humain.
«Smart Curation»
C’est là où intervient Knowhere, en proposant une solution qui correspond à la curation intelligente, telle qu’elle a été imaginée par l’écrivain Frédéric Martel et rapportée par le journal Slate en 2015: «Il s’agit d’une combinaison des deux modèles, l’algorithme d’une part, la curation de l’autre. C’est-à-dire un «double filtre» qui permet d’additionner la puissance des mégadonnées et de l’intervention humaine.»
L’équipe basée à San Francisco est composée de 16 personnes dont des ingénieurs, des journalistes et une designer. Et parmi les trois fondateurs on découvre avec fierté un genevois, Alexandre Elkrief.
L’intérêt pour cette nouvelle formule n’a pas tardé. Dans les dix jours qui ont suivi son lancement, Knowhere a fait l’objet d’articles dans les plus grands titres de la presse technologique américaine (TechCrunch, Vice, Futurism, Fast Company, Mic…).
Passionnant, merci pour l’information! Reste qu’il ne faut négliger le danger de cette démarche: le label Knowhere créera l’illusion d’une information hautement contrôlée et donc totalement fiable, là où des manipulations resteront possibles soit par l’humain intervenant au final soit – pire – par l’intelligence elle-même, que certains parviendront tôt à tard à infecter pour la fausser.
Selon moi, le danger de l’IA peut résulter dans une trop grande délégation à la machine avec l’idée qu’elle ne peut pas se tromper ou être manipulée. L’humain ne fera plus même l’effort d’aller vérifier au-delà.