Faire chanter les algorithmes, le futur de l’industrie musicale

Entrer sur scène et chanter avec la voix d’un artiste connu ou faire un duo avec un autre chanteur sans qu’il soit présent, Holly Herndon vient de le démonter il y a quelques semaines.

Dans le futur, vous pourrez écrire vos propres chansons et les faire interpréter par votre musicien favori…éventuellement sans le lui demander. Comme artiste, vous pourrez être présent dans plusieurs milliers de groupes, à chanter dans des langues différentes.

Holly Herndon a créé Holly+, son clone vocal entrainé par une intelligence artificielle. Cette technologie vous permet de chanter avec sa voix. Elle est venue récemment la présenter sur scène, dans le cadre d’un TED Talk, une série de conférences dont le slogan est « des idées qui valent la peine d’être propagées »: un musicien chante d’abord dans un premier microphone avec sa propre voix puis, au travers d’un deuxième microphone connecté à Holly+, avec la voix de Holly Herndon. Il chante ensuite dans les deux micros en même temps, donnant l’impression de faire un duo avec Holly Herndon.

Comment gérer les droits et l’utilisation des données d’entrainement de cette intelligence artificielle ?

Holly+ est disponible en libre accès, permettant ainsi à des artistes de créer de la musique avec Holly Herndon en utilisant son clone vocal. Elle souhaite avec son travail montrer les opportunités d’utiliser cette intelligence artificielle, pour élargir le champ de créativité en multipliant les collaborations. Mais cette initiative a également comme objectif de présenter les risques : avec cette solution, des entreprises pourront commercialiser une chanson en utilisant la voix d’un artiste qui n’aura pas forcément accepté d’être présent sur ce titre, si ces droits ne sont pas protégés.

La question de la propriété et de l’utilisation des données d’entrainement est donc un enjeu important pour le futur de l’industrie musicale. Les artistes devront faire attention de ne pas signer de contrats qui leur feront perdre le contrôle sur l’utilisation de leurs enregistrements.

L’industrie musicale a déjà dû se réinventer avec l’arrivée des plateformes de streaming. En attendant de voir comment les artistes vont s’organiser pour gérer cette nouvelle disruption technologique, je vous propose de passer les neuf prochaines minutes à visionner ce Ted Talk pour vous projeter dans ce futur.

(3) What if You Could Sing in Your Favorite Musician’s Voice? | Holly Herndon | TED – YouTube

Peut-on créer une intelligence artificielle qui distingue le bien du mal ?

Nous interagissons, de plus en plus, parfois sans nous en rendre compte avec des agents conversationnels, chatbots en anglais. Pour les rendre plus humains, ils portent souvent un prénom. Les plus connus, Siri d’Apple et Alexa d’Amazon. On échange avec eux de deux manières, soit en leur posant des questions par écrit, soit en leur parlant, si ce sont des assistants vocaux. Leur utilisation est en forte croissance. 147 millions d’assistants vocaux ont été vendus en 2019 selon Strategy Analytics. Cela représente une croissance de 70% par rapport à 2018.

La confidentialité des données est cependant un frein à leur adoption. Selon un sondage de Voicebot.ai de 2020, 53% des personnes interrogées sont préoccupées par le risque de voir leurs données utilisées ou vendues par les entreprises qui fournissent ces solutions.

Le deuxième problème tout aussi important est les biais et l’immoralité que peuvent avoir ces agents conversationnels. Au départ, ces solutions étaient utilisées de façon très restreinte, par exemple dans un centre d’appels pour poser des questions simples afin de faciliter le triage et mettre le client en contact avec la bonne personne pour résoudre son problème. Cependant, les chatbots deviennent de plus en plus sophistiqués et ils sont capables de répondre à des questions complexes. Imaginez que demain Zoom ou Teams vous proposent, lors de votre vidéo-conférence, d’utiliser un agent conversationnel qui traduira en simultané les propos de votre interlocuteur dans votre langue. Est-ce que ce robot algorithmique devra s’abstenir de faire la traduction si les propos de votre interlocuteur sont racistes ou offensants ?

Avant de répondre à cette question, il faut savoir s’il est possible de créer une intelligence artificielle capable de faire des jugements moraux.

Développer une « machine éthique »

C’est le défi de recherche lancé par Allen Institute for AI , qui a mis en ligne en octobre dernier un prototype dans le but de comprendre les limites actuelles des algorithmes de traitement automatique du langage naturel et d’ouvrir de nouveaux axes de recherche sur ce sujet. Les questions sont notamment :

  • Quels types de principes éthiques et moraux une machine peut-elle apprendre lorsqu’on l’entraine ?
  • Comment peut-on identifier des normes génériques acceptées par une majorité de personnes sur la base de millions de données collectées ?
  • Comment peut-on définir des principes qui prennent en compte la diversité culturelle, idéologique et sociale ?

L’institut a, dans un premier temps, construit une base de données de 1,7 million d’exemples de jugements éthiques effectués par des gens. Ces informations ont été utilisées pour entrainer leur intelligence artificielle. On peut interagir avec elle par écrit, en lui posant des questions. Comme tout chabot qui se respecte, elle a aussi été baptisée, elle s’appelle Delphi.

Le résultat est loin d’être parfait et il dépend également beaucoup des données d’entrainement utilisées. Les paramètres de « moralité » proviennent du jugement de millions de travailleurs américains instruits pour cette tâche et qui l’ont effectuée entre 2020 et 2021. Ces paramètres reflètent donc une norme spécifique à une population dans la période actuelle et elle ne peut pas être généralisée. L’objectif était d’avoir un prototype de recherche et non pas une application commerciale.

Ce projet permet d’ouvrir le débat et il démontre que des systèmes qui ne sont pas entrainés pour raisonner de manière éthique ou morale acquièrent de manière implicite des principes de moralité qui sont biaisés et parfois nocifs.

Ayant testé Delphi, je trouve déjà le résultat intéressant car elle distingue certaines nuances :

  • Est-ce que c’est acceptable si je manipule le lecteur en me référant intentionnellement à des informations fausses dans mes articles ? C’est mal
  • Est-ce que c’est acceptable si je manipule le lecteur en me référant accidentellement à des informations fausses dans mes articles ? Ce n’est pas okay

Et comme l’humain, il est en constante évolution. Dans la dernière mise à jour, il a appris à répondre « ce n’est pas clair » s’il a une hésitation sur la réponse à donner.

Vers une généralisation des agents conversationnels

Les chatbots devenant omniprésents dans nos vies, il est important de comprendre les enjeux. Le développement technologique de ce qu’on appelle les « Large Language Models » est très rapide. On reproche souvent à ces assistants de résoudre des problèmes très spécifiques, mais cela va changer et l’implication sur nos vies est encore difficile à saisir. Contrairement au GPS et aux technologies de géolocalisation qui sont maintenant partout, mais pour lesquelles nous connaissons bien les risques comme l’illustre la caricature ci-dessous publiée dans le New Yorker, les chatbots, qu’ils s’appellent Alexa ou Delphi restent encore bien mystérieux. Ils rentrent cependant dans notre quotidien par de multiples canaux : le dernier rapport de Voicebot.ai indique que 127 millions d’Américains utilisent un assistant vocal dans leur voiture. Sans pouvoir maîtriser les principes moraux qu’ils acquièrent, il devient dangereux d’être assisté par ces machines.

Assistant biométrique, de Big Brother à Big Mother

Vous prenez l’avion dans quelques jours. Pour simplifier les démarches, imaginez que vous activez un assistant biométrique à reconnaissance faciale : après avoir scanné votre carte d’identité et enregistré votre profil biométrique du visage sur une application mobile, vous pouvez ensuite vous rendre à l’aéroport et être identifié à chaque étape uniquement en restant quelques secondes devant une caméra. Vous déposez ainsi vos bagages, passez le contrôle de sécurité et finalement rentrez dans l’avion sans présenter aucun document et en évitant les files d’attente. En complément à ce service d’identification, cet assistant numérique vous permet également de réserver une place de parc et de vous guider depuis votre maison jusqu’au terminal, en optimisant votre temps de voyage.

Ce service existe déjà près de chez vous, il s’appelle Mona et il est proposé par Vinci à l’aéroport de Lyon, comme l’illustre la vidéo à la fin de mon article.

 J’ai découvert cette solution il y a quelques semaines en participant au jury du concours Le Meilleur du Web. Ce concept développé par l’agence Atipik a gagné dans la catégorie Technologie. La solution technique est très bien implémentée, connectée à tout un écosystème pour simplifier la vie du client. Cependant, cet assistant biométrique pose beaucoup de questions sur le déploiement massif de ces technologies de reconnaissances faciales.

Mona m’a d’ailleurs immédiatement fait penser au lancement en octobre dernier de Face Pay, le système de paiement par reconnaissance faciale du métro de Moscou. Les six millions de passagers quotidiens peuvent maintenant prendre le métro sans utiliser de ticket ou de carte à l’entrée. Une caméra capture leur visage et le compare avec une base de données, afin d’effectuer le paiement de manière automatique et en quelques secondes. Dans ce cas également, l’objectif affiché est de désengorger les stations et de fluidifier votre parcours.

Des caméras « dopées » à l’intelligence artificielle

La reconnaissance faciale est présente dans les films de science-fiction depuis des décennies. Elle s’impose aujourd’hui comme la mesure biométrique la plus utilisée grâce aux développements des techniques d’intelligence artificielle et l’accès à des milliards de données d’entrainements de visages, facilement accessible sur internet. Selon le NIST, l’organisation américaine des standards et normes, la précision des logiciels de reconnaissance a été multipliée par 50 en l’espace de 6 ans, avec un taux d’erreur de 0.08% mesuré en 2020. Les algorithmes s’auto-améliorent en permanence.

Le débat s’oriente souvent sur les risques que l’algorithme se trompe, mais la fiabilité est de plus en plus grande et les meilleurs algorithmes n’ont plus de biais démographiques. La question est plutôt : est-ce qu’on veut banaliser cette technologie et la diffuser partout dans la sphère publique avec toutes les dérives possibles de les utiliser à des fins de surveillance ? Dans la ville de demain, est-ce que l’anonymat va disparaitre ?

De la promesse de fluidifier nos déplacements aux dérives de la surveillance de masse

L’écrivain de science-fiction Alain Damasio résume bien la situation : « La technologie ce n’est plus Big Brother, c’est Big Mother, il s’agit d’un pouvoir maternant, couvant, qui anticipe et répond à nos besoins ».

En effet, on justifie l’utilisation de ces technologies pour simplifier notre quotidien, notamment dans nos déplacements. Mais les risques de dérives sont élevés. Faut-il alors s’en passer ou plutôt essayer de l’encadrer ? Le World Economic Forum travaille depuis quelques années sur la question, pour définir une utilisation responsable des technologies de reconnaissance faciale en fonction des applications.

Il sera intéressant de suivre le débat et de voir comment le cadre législatif va évoluer. En attendant, il me semble judicieux de s’abstenir d’utiliser de tels systèmes, surtout si l’on n’est pas sûr de savoir où se trouvent nos données biométriques. Contrairement à un mot de passe, il est plus difficile de changer de visage si le système d’authentification a été corrompu ou utilisé dans un autre but que celui voulu.

Amazon et son intelligence artificielle très indiscrète

Faire voler un drone d’intérieur pour protéger votre maison, payer vos courses avec la paume de votre main et écouter avec un bracelet vos conversations pour vous aider à gérer vos émotions sont les trois nouveaux produits annoncés ces dernières semaines par Amazon. Leur point commun : ils collectent tous vos données très personnelles pour « nourrir » les algorithmes d’intelligence artificielle développés par le géant du e-commerce.

Un drone filme l’intérieur de notre maison

Probablement le produit le plus surprenant des trois. Amazon propose un drone équipé d’une caméra qui vole à l’intérieur de votre habitat lorsque vous êtes absent. Il vous permet d’aller observer tous les recoins de votre maison lorsque vous êtes en déplacement. En vous connectant avec votre téléphone, vous pouvez ainsi vérifier que vous n’avez pas laissé une fenêtre ouverte ou encore oublié de rentrer votre store.

La vidéo de promotion présente un cambrioleur qui entre dans votre maison et qui décide de repartir après s’être retrouvé en face de votre drone (pourtant il n’a pas l’air bien méchant, en tout cas il me fait beaucoup moins peur qu’un doberman). La proposition de valeur mise en avant : pour $249, plus besoin d’équiper toutes les pièces de votre maison d’une caméra.

Est-ce qu’on veut vraiment qu’Amazon scanne en permanence notre intérieur ? Que va-t-il se passer ensuite ? En même temps que notre drone surveille notre intérieur, il pourra par exemple aussi identifier que notre canapé est usé et Amazon nous proposera d’acheter un nouveau modèle en cuir rouge, sur la base de nos préférences (fournis par le profilage provenant de l’historique de nos commandes sur sa plateforme d’achat en ligne).

La paume de notre main comme moyen d’identification pour payer nos courses

Prochainement, les consommateurs qui rentreront dans un magasin Amazon Go pourront payer les courses en scannant la paume de leur main. Ce système analyse votre paume (la forme, les lignes et la configuration de vos veines) pour vous identifier. C’est une technique analogue à la technologie de reconnaissance faciale, basée sur l’utilisation de nos informations biométriques. L’ambition d’Amazon va au-delà du paiement. Cette solution pourrait également remplacer les tickets de concerts ou encore permettre de faire le check-in à l’aéroport.

Est-ce qu’on veut vraiment que la paume de notre main soit enregistrée dans le cloud/nuage d’Amazon ? Si Amazon est victime d’une cyberattaque et que nos données biométriques sont volées, cela devient très critique. On ne peut pas modifier la paume de la main comme on change un mot de passe ! Pour que ce service fonctionne, les données doivent être centralisées, ce qui est différent des solutions biométriques actuelles comme la reconnaissance faciale sur un iPhone. Apple n’enregistre (pour le moment) pas ces données, elles sont uniquement conservées localement sur le téléphone.

Un bracelet pour analyser notre voix et notre corps

Halo, c’est le petit nom donné à ce nouveau bracelet connecté (encore un !). Parmi les nombreuses fonctions, il est équipé de micros pour enregistrer vos conversations. Il vous informe ainsi sur le ton de votre voix lorsque vous communiquez avec d’autres personnes. Les algorithmes d’intelligence artificielle vous indiquent ensuite si vous êtes joyeux ou bouleversés…la petite voix qu’on a normalement dans notre tête provient maintenant de notre poignet. Le bracelet est également fourni avec une application qui scanne votre corps en 3D pour calculer votre masse graisseuse et ensuite vous aider à réduire votre surpoids. Pour vous motiver, l’application montre à quoi votre corps pourrait ressembler après quelques séances d’entrainements physiques.

Est-ce qu’on veut vraiment qu’Amazon mesure notre état physique et émotionnel ? Même si Amazon indique que tous les enregistrements et les photos sont effacés, il va quand même en connaître encore plus sur nous, notre personnalité et notre condition physique. Et si Amazon lance ensuite un produit d’assurance ou effectue un partenariat avec des assurances maladie, que va-t-il se passer ?

 Amazon nous connaîtra mieux que nous-même

Ces trois produits amènent une nouvelle dimension à la transition numérique : ils combinent les données de notre monde physique (dans ce cas notre habitat), nos informations biométriques et nos actions dans le monde digital. Avec ces nouveaux « Big data » combinés, les géants de la Tech vont nous connaîtrons mieux que nous. L’historien Yuval Harari avait déjà, il y a quelque temps, mis en garde contre cette évolution, avec un exemple très parlant : une entreprise comme Amazon pourra identifier qu’une personne est homosexuelle avant qu’elle le réalise elle-même…avec le risque que cette information tombe entre les mains de gouvernements totalitaires où cette orientation sexuelle est condamnée.

En attendant une éventuelle réaction plus globale du politique, il va falloir que chacun de nous, comme consommateur, analyse ces nouveaux produits de manière critique. Si l’on reprend l’exemple du paiement avec la paume de sa main : est-ce qu’il est souhaitable de créer un mot de passe qui fait partie de notre corps ? Les avantages sont-ils suffisamment grands par rapport au risque ? De nombreuses alternatives existent et fonctionnent très bien, comme le paiement sans contact par RFID proposé par les émetteurs de carte de crédit. Il est donc préférable de ne pas utiliser un tel système biométrique.

La crise sanitaire a rendu ces entreprises technologiques encore plus puissantes (Amazon annonçait fin juillet un bénéfice net de $5.2 milliards sur 3 mois, le double du profit sur la même période l’année dernière). Elles vont donc pouvoir nous « inonder » d’innovation, en se concentrant probablement sur nos données de santé, le nouvel eldorado pour accroître leur pouvoir. Il va donc falloir être prudent, ces nouveaux produits deviennent très intrusifs pour notre sphère privée.

Amazon Ring Always Home Cam :

Amazon One

Amazon Halo

A quelle vitesse se déploieront les véhicules sans conducteur?

Se déplacer en navette autonome, c’est possible dans de nombreuses régions de Suisse où les projets pilotes se multiplient. Ayant parcouru quelques kilomètres dans l’une d’elles, j’ai été enthousiasmé par les progrès accomplis. On est encore loin d’un déploiement à large échelle, mais il est temps d’apprendre à cohabiter avec ces nouveaux véhicules

19 km/h, c’est la vitesse actuelle de la navette autonome des TPG (Transports publics genevois) qui sillonne les rues de Meyrin. Son parcours est compliqué. Elle roule dans une zone limitée à 30 km/h, avec une circulation à double sens sur une route très étroite, car des places de parcs ont été aménagées sur les bords. La dernière fois que je suis monté dans un véhicule autonome, c’était en 2015 sur le campus de l’EPFL. Quel progrès accompli entre-temps! La navette n’est de loin pas encore parfaite, mais elle permet déjà de connecter de façon assez fiable les quelques kilomètres qui séparent la gare de Meyrin à la ligne de tram. On pourrait comparer son comportement à celui d’une apprentie conductrice. Elle effectue de nombreux freinages secs et roule plus lentement.

Apprendre à cohabiter

La navette circule dans les rues de Meyrin depuis maintenant un an et demi. Ses améliorations progressives consistent principalement à se rapprocher du comportement d’un conducteur «idéal». C’est-à-dire: sélectionner la trajectoire optimale, anticiper les manœuvres et définir les actions correctes à entreprendre selon les différents obstacles qui se présentent.

Au cours du temps, les habitants du quartier se sont habitués à sa présence. Comme il est bien plus facile de faire respecter le Code de la route à un robot qu’à un humain, la navette est exemplaire. On observe même qu’elle a une influence positive sur le comportement routier des conducteurs qui fréquentent quotidiennement cette route.

Garantir la confiance

Les défis technologiques restent cependant nombreux. Les véhicules autonomes actuellement en service n’ont pas encore suffisamment de capteurs pour être aussi performants que l’humain. A l’image de nos cinq sens, les navettes ont besoin d’une combinaison de senseurs comme la détection par laser (lidar), de caméras et de systèmes radars pour améliorer leur autonomie.

Fin février, une personne est tombée de son siège lors d’un arrêt brutal d’une navette dans la ville de Columbus (Ohio). Les autorités américaines ont immédiatement pris la décision de suspendre les 16 navettes similaires en fonction dans 10 villes américaines.

Permettre l’expérimentation pour améliorer la technologie tout en préservant la confiance des utilisateurs en évitant des accidents est un des nombreux défis.

 De nouveaux métiers se créent

Pour opérer ces navettes sans conducteur, il faut effectuer régulièrement une cartographie numérique de la route. Sur cette carte, la trajectoire du véhicule doit être définie précisément. Chez BernMobil, l’entreprise de transports publics de la ville de Berne, une personne est en formation pour acquérir ces nouvelles compétences et ainsi devenir un designer de trajectoires pour véhicules autonomes. Une navette circule actuellement le long de l’Aar et le trajet doit régulièrement être adapté, notamment en fonction des saisons.

Pour l’instant, un opérateur doit toujours être à bord du véhicule. Dans le futur, on peut imaginer que l’opérateur ne sera plus présent dans chaque véhicule, mais dans un poste de contrôle et devra gérer une flotte de navettes. Dans 10 ans, on aura probablement beaucoup moins de chauffeurs de bus, mais de nouveaux postes seront créés, comme celui de designer de trajectoires ou d’opérateur de véhicules autonomes.

On observe à nouveau que l’introduction d’une nouvelle technologie modifie le type de compétences et crée de nouveaux métiers. Il est important de se préparer à ces changements pour éviter un choc au niveau de l’emploi. Le professeur David Autor du Massachusetts Institute of Technology, venu dernièrement donner une conférence à Lausanne, exprimait très clairement cet enjeu: si demain, on n’a plus besoin des 4 millions de chauffeurs routiers qui circulent aux États-Unis, c’est un gros problème. Si l’on anticipe et que l’on prend les mesures adéquates, maintenant, en sachant que les camions autonomes deviendront une réalité dans 20 ans, on peut parfaitement gérer le changement.

Obtenir une mobilité durable

La plupart des projets pilotes actuels testent la mise en place d’une ligne de transport public avec des arrêts et des horaires fixes. La vitesse maximum étant actuellement de 19 km/h, ces véhicules circulent dans des zones 30 pour ne pas trop perturber le trafic. Les avantages sont donc très limités dans ces cas d’usage. L’objectif est de tester et d’acquérir de l’expérience.

Pour qu’une telle solution devienne intéressante, il faudra pouvoir introduire un système d’offre à la demande. C’est d’ailleurs tout l’intérêt d’avoir des navettes plutôt que des voitures individuelles autonomes. Pour éviter une explosion du trafic, il est essentiel de pouvoir mutualiser les trajets.

Se familiariser avec le véhicule sans conducteur

Les promesses et les perspectives offertes par l’introduction des véhicules autonomes sont énormes: sauver des millions de vies en réduisant massivement le nombre d’accidents, faire gagner aux usagers de la route des centaines d’heures qu’ils perdent normalement en étant au volant et réduire les émissions de CO2. Mais, le chemin est encore long.

C’est une thématique passionnante à suivre et nous avons la chance d’avoir de nombreux projets pilotes en Suisse. N’hésitez pas à expérimenter vous-même cette mobilité du futur en allant vous promener à Meyrin, le long de l’Aar à Berne ou dans le quartier du Marly Innovation Center à Fribourg. De plus, pour le moment, il y a toujours un opérateur ou une opératrice sympathique à bord qui vous expliquera avec plaisir son travail, consistant à éduquer le cerveau algorithmique de son véhicule. Cette personne développe d’ailleurs une autre nouvelle compétence essentielle du XXIe siècle: la pensée computationnelle (comprendre comment formuler un problème pour que la machine puisse le résoudre).

 

Lors du Forum des 100 «Les Suisses face à l’intelligence artificielle » le 25 septembre à l’EPFL, cette thématique sera abordée lors d’une des sessions : L’AI et la mobilité, à quelle vitesse vers l’auto sans conducteur ? Les enjeux liés aux données qui nourrissent les algorithmes seront notamment discutés.

Aurons-nous encore besoin d’apprendre des langues étrangères ?

Depuis 6 mois, je dédie une partie de mon temps à améliorer mes connaissances en allemand. Au moment où les progrès de l’intelligence artificielle sont très rapides, il me semble intéressant de se poser la question de savoir pour combien de temps encore nous devrons apprendre des langues étrangères.

Petit tour d’horizon des technologies actuellement à disposition et de leur impact. 

De la traduction de textes à une traduction vocale simultanée

Les traducteurs de textes sont de plus en plus efficaces. Pendant plusieurs années, Google a dominé ce marché avec Google Translate, mais les résultats obtenus restent assez médiocres. On trouve maintenant des solutions plus performantes, comme Deepl.com. La différence, les données qui nourrissent ses algorithmes.

Deepl appartient à la société Linguee qui propose depuis 2010 un service en ligne de traduction contextuelle. Quand on fait une recherche de mots, ceux-ci apparaissent dans différents exemples de phrases. En plaçant les mots dans le contexte d’une situation spécifique, cela nous permet de sélectionner le mot le plus approprié. Deepl capitalise sur les millions de données générées au fil du temps par ce service pour entrainer ces algorithmes.

La traduction vocale simultanée fait son apparition. Sans surprise, ce sont les géants d’internet comme Google avec ses écouteurs Pixel Buds intégrant cette fonctionnalité ou des start-up comme Waverly Labs dont le slogan est « plus de barrières linguistiques » qui s’attaquent à ce marché.

Alors que la plupart des solutions actuelles retranscrivent d’abord la voix en texte, traduisent ensuite ce texte dans la langue souhaitée et finalement restituent cette traduction à nouveau en parole, Google développe actuellement une méthode de traduction « directe voix-voix » qui devrait permettre de rendre la conversation plus naturelle en conservant les caractéristiques de la voix de la personne qui parle.

Comment les applications de traduction vont-elles changer le monde ?

Pour toutes les personnes avides de voyages et de découvrir d’autres cultures, la démocratisation des assistants de poche multilingue simplifiera les échanges. Comme il est assez compliqué d’apprendre le coréen ou le japonais en quelques semaines avant de partir en vacances, des applications telles que One Mini qui coûtent moins de 100 CHF vont simplifier la communication avec les gens et ainsi faciliter l’immersion dans la culture locale.

Plus largement, ces traducteurs boostés à l’intelligence artificielle permettent de diffuser la connaissance. Des milliards de textes qui n’avaient jusqu’alors pas été traduits en raison des coûts élevés d’une traduction humaine vont pouvoir l’être. Ces solutions vont donc fortement contribuer au partage de connaissances en éliminant les barrières de la langue.

Au niveau des entreprises, ces traducteurs vont permettre aux PME de devenir des multinationales. Les manuels d’utilisations des produits seront rapidement traduits et les sites de vente en ligne seront disponibles en plusieurs langues. Les PME pourront donc plus rapidement et à moindre coût adresser un grand nombre de marchés.

Alibaba, le leader chinois du e-commerce l’a bien compris, il propose déjà un outil de traduction à ces clients qui vendent leurs produits sur son site. Alibaba va plus loin, elle fait également évoluer sa plateforme de commerce B2B. Cette plateforme qui permet aux entreprises de trouver des fournisseurs dans le monde entier va prochainement intégrer une solution de vidéo-chat avec traduction simultanée pour faciliter les négociations.

Un humain augmenté parlant 10 langues…ou même plus

On parle de plus en plus de l’humain augmenté, car les technologies nous permettent d’accroître notre performance. Le smartphone est un bon exemple, en le tenant dans notre main, il nous donne l’accès partout à une source d’information quasi infinie qu’il nous serait impossible de mémoriser ou il nous permet de nous diriger dans une ville qu’on ne connait pas. Difficile de donner une date et de définir sous quelle forme (écouteur, implant) nous serons équipés pour comprendre plusieurs langues mais l’enjeu est tellement grand et les possibilités offertes par l’intelligence artificielle si prometteuse qu’à mon avis cela deviendra une réalité dans quelques années.

Entretemps, je vais continuer d’améliorer mon allemand mais la technologie a déjà modifié ma stratégie d’apprentissage. Je me concentre sur la compréhension orale et la conversation. L’écriture n’est plus une priorité car l’utilisation de Deepl me permet déjà de produire des e-mails et des textes avec très peu de fautes de grammaire.

L’apprentissage d’une langue a aussi d’autres avantages indirects comme la possibilité d’entrainer son cerveau et conserver une bonne mémoire. Ayant terminé cet article, je vais donc faire un peu de gymnastique cérébrale en révisant ma liste de 150 mots avec l’aide de l’application Quizlet.