DIGITALE ATTITUDE : Alors que les États, les médias et les réseaux sociaux cherchent des solutions pour lutter contre la propagation de fake news, voilà que se profile un danger encore plus grand, les «fake vidéos.»
Une vidéo truquée d’Obama
Quelques jours plus tard, sur le site Ultimedia, je vois une vidéo de Barack Obama, assis devant un drapeau américain. Il dit que Donald Trump est un «dip sh***» (une personne méprisable, en traduction polie). Ces paroles sortent bien de sa bouche, c’est bien son timbre de voix et je reconnais sa gestuelle, mais l’ancien président n’a jamais prononcé ces mots-là – du moins en public. La voix est celle d’un imitateur qui a été juxtaposée sur la sienne. La vidéo est donc truquée, comme celles qui commencent à proliférer sur Internet. C’est le site buzzfeed qui vient de réaliser ce montage afin d’appeler les internautes à une plus grande vigilance en ligne.
On peut d’ores et déjà imaginer la gravité des conséquences en politique, sur l’économie et dans la vie privée des individus, si de telles manipulations devaient se multiplier.
Les «deep fakes» porno
Plusieurs célébrités en sont déjà les victimes au sein d’une communauté sur le site de Reddit, qui s’amuse à transférer leurs visages sur des corps d’actrices porno, définissant ainsi un nouveau genre dans l’industrie du X, aussitôt baptisé «deep fakes».
Distinguer le vrai du faux
Si modifier une vidéo est devenu plus facile c’est grâce à une nouvelle génération d’applications dotées d’apprentissage profond avec leurs tutorials à l’appui – comme Deep Fake App ou FakeApp – et les banques d’images sur Ie Web, disponibles à tous.
DARPA contre-attaque
Selon TechCrunch, DARPA, l’agence du département de la Défense des États-Unis, s’attaque au problème avec sérieux dans le cadre de son programme Media Forensics. L’enjeu : protéger la prochaine campagne présidentielle américaine de 2020. Avec des chercheurs de l’Université d’Amsterdam et de l’Institut de Recherche Idiap en Suisse, elle participe au développement d’un système automatisé qui serait capable de détecter si des images ou des bandes-sons ont été faussées. Pourvu que ça marche.
Lire aussi: Voici venu le temps de la technologie criminelle