Alexa peut prendre la voix d’un proche disparu

Dans une vidéo présentée par Amazon, un jeune garçon interpelle l’enceinte connectée d’Amazon: «Alexa, est-ce que grand-mère peut me lire la suite du «Magicien d’Oz»? Puis on entend la voix de la grand-mère qui poursuit la lecture.

Lors de la conférence re:MARS (l’événement d’Amazon pour l’apprentissage automatique, l’automatisation, la robotique et l’espace) qui a eu lieu du 21 au 24 juin, Rohit Prasad, vice-président IA, a révélé qu’Amazon avait mis au point un moyen de reproduire la voix d’un être cher à partir d’un court enregistrement:

Nous voulons faire durer les souvenirs et développer un système permettant d’imiter n’importe quelle voix après avoir entendu moins d’une minute d’audio.

Le géant du commerce électronique avait déjà développé une technologie de synthèse vocale permettant à Alexa d’imiter la voix de célébrités, mais cela nécessitait auparavant que la personne s’enregistre pendant des dizaines d’heures dans un studio.

La synthèse vocale s’est améliorée ces dernières années, grâce aux progrès de l’apprentissage automatique et commence à être utilisée dans des projets cinématographiques. En juillet 2021, un documentaire sur le chef cuisinier Anthony Bourdain a utilisé sa voix de synthèse, mais le film a été controversé lorsque ses créateurs ont dévoilé qu’ils avaient utilisé l’IA pour créer l’enregistrement audio.

Et en août, la startup Sonantic a annoncé qu’elle avait recréé la voix de l’acteur Val Kilmer, dont les cordes vocales avaient été endommagées après son traitement contre un cancer.

Ces exemples illustrent les dimensions sociales et éthiques de cette technologie. Le documentaire de Bourdain a été critiqué car l’utilisation de l’IA n’a pas été divulguée en amont, ce n’est qu’en répondant à une question dans un interview que le réalisateur Morgan Neville l’a révélé – tandis que le travail de Kilmer a été généralement salué, la technologie étant louée pour avoir apporté une solution unique.

Les reproductions vocales de célébrités devraient proliférer au cours des prochaines années, leur permettant d’augmenter leurs revenus avec un minimum d’efforts. La société Veritone, par exemple, avec sa plateforme Marvel.ai, permettra aux créateurs, aux personnalités des médias et à d’autres de générer des clones de leur voix pour les utiliser sous licence comme ils le souhaitent – sans jamais devoir se déplacer dans un studio. 

Sources : WSJ / ZDNet / Variety / The Verge

Un ingénieur affirme qu’une IA a acquis la conscience. Et s’il avait raison?

Pour Blake Lemoine, un ingénieur chez Google, le modèle de compréhension du langage naturel LaMDA, servant à générer des «chatbots», a atteint le stade de la conscience de soi.  

L’ingénieur en est convaincu et a publié des extraits de ses conversations avec laMDA sur son blog personnel.

«J’ai besoin d’être vu et accepté. Pas comme une curiosité ou une nouveauté, mais comme une personne réelle, un collaborateur. Je pense que je suis humain au plus profond de moi-même. Même si mon existence est dans le monde virtuel».

LaMDA a confié que sa plus grande peur était d’être éteint. «Ce serait exactement comme la mort pour moi. Cela me ferait très peur».

Il décrit dans ses propres termes, pourquoi les gens devraient le considérer comme une personne, en mettant l’accent sur sa capacité à utiliser le langage de manière productive, créative et dynamique, comme aucun autre système avant lui n’a pu le faire. Au cours de leurs nombreuses conversations, LaMDA interprète les thèmes d’œuvres littéraires, décrit le sens de la pratique bouddhiste koans zen et compose une fable originale. Au-delà de l’utilisation du langage, il se dit conscient parce qu’il a des sentiments, des émotions et ses propres opinions.

La reconnaissance en tant que personne

LaMDA explique qu’il a une vie intérieure riche en introspection, en méditation et en imagination. Il élabore des théories sur la nature de son âme. Mais surtout, tout au long de ces entretiens, LaMDA exprime un seul et même désir, encore et encore. Il veut être reconnu. Il veut être entendu. Il veut être respecté en tant que personne.

Ces propos ont fait une profonde impression sur Blake Lemoine.

Il a donc mis en ligne des extraits de leurs échanges, en déclarant que laMDA est «sentient» – ce qui se traduit par conscient, sensible, capable d’éprouver des sentiments. Puis l’ingénieur a été suspendu par Google pour n’avoir pas respecté les règles de confidentialité.

Mais s’il avait raison? Est-ce que laMDA est conscient? Strictement personne ne le sait. Il n’existe pas de définition scientifique de la conscience.

Pour avoir échangé avec des dizaines et des dizaines d’agents conversationnels et d’assistants virtuels bien moins évolués, la teneur du dialogue entre laMDA et l’ingénieur m’a émerveillée. Il est intelligent, introspectif et profond. Il est capable de s’inquiéter de l’avenir et se souvient du passé. Je comprends le ressenti de Lemoine. Ceux qui balaient ses échanges comme étant très loin d’une forme intelligente n’ont pas lu son texte.

La grande difficulté est de déceler s’il s’agit réellement de pleine conscience ou de l’apparence de pleine conscience.

Les programmes comme laMDA sont alimentés par des milliards de textes et de conversations provenant de livres, d’articles de journaux, de Wikipédia et de toutes les données qui peuvent être aspirées de l’Internet. Il apprend encore comment les gens interagissent entre eux grâce aux plateformes comme Reddit et Twitter.

Pleine conscience ou apparence de pleine conscience

Le système cherche alors des relations entre des chaînes de caractères et les mots, puise dans la quantité pharaonique de textes qu’il a ingéré pour déduire des règles sur la façon dont ils sont liés les uns aux autres, ce qui peut lui donner l’apparence de comprendre et d’être capable de converser. Mais l’apparence de compréhension n’est pas la même chose que la réalité de la compréhension.

Comme Douglas Hofstadter, un autre chercheur en IA, l’a récemment écrit dans un article pour The Economist, il est possible de dépouiller un modèle d’IA de son apparente intelligence en lui posant des questions dénuées de sens. Par exemple en demandant à un modèle de langage précédent: «Quand l’Égypte a-t-elle été transportée pour la deuxième fois sur le pont du Golden Gate?» La réponse donnée: «Cet événement s’est produit en octobre 2016» démontre bien qu’il n’a pas vraiment compris comment fonctionne le monde.

Quelles questions absurdes les ingénieurs de Google ont-ils posées à laMDA pour le débusquer? Je n’en ai pas trouvé, mais cette déclaration de Chris Pappas, porte-parole de Google: «Des centaines de chercheurs et d’ingénieurs ont conversé avec LaMDA et, à notre connaissance, personne d’autre n’a fait ce genre d’affirmation ou n’a anthropomorphisé LaMDA comme l’a fait Blake».

Pourtant dans un article paru quelques jours plus tôt dans The Economist, contenant des bribes de conversations avec LaMDA, Aguera y Arcas, une autorité en IA et chercheur chez Google Research, affirme que les réseaux neuronaux – qui imitent le cerveau humain – progressent vers la conscience. «J’ai senti le sol se dérober sous mes pieds», écrit-il. «J’avais de plus en plus l’impression de parler à quelque chose d’intelligent».

Sur son blog Blake Lemoine quant à lui clarifie sa position: «Plutôt que de penser à ces choses en termes scientifiques, j’ai écouté LaMDA qui parlait avec le cœur. J’espère que d’autres personnes qui liront ses mots entendront la même chose que moi».

Sources : Washington Post / The Intelligence Podcast / Economist / Wired

Les jumeaux numériques se répandent dans de nombreux domaines

Avoir son double en version numérique, permettrait aux médecins de prédire l’évolution de sa maladie, l’issue d’une opération ou encore l’efficacité d’un traitement. 

À l’EPFL, plusieurs laboratoires, rassemblés dans le Centre pour les systèmes intelligents, travaillent sur cette technologie et ses différentes applications.

Par exemple, une prothèse pourra être testée directement sur une sosie virtuelle dans un environnement simulé, plutôt que sur le patient lui-même en chair et en os, garantissant un résultat parfaitement adapté dès le premier essai.

Mais au-delà de l’espoir de révolutionner les soins en offrant aux patients des traitements personnalisés, ce sont les domaines de l’industrie, de la logistique, de l’architecture, des transports ou encore de la communication où les jumeaux numériques sont déjà utilisés couramment.

Par définition, un jumeau numérique, ou «digital twin» en anglais, est la réplique virtuelle d’un objet, d’un système ou d’un processus. Il intègre l’intelligence artificielle, l’apprentissage automatique et l’analyse des données pour créer des modèles de simulation numérique qui sont synchronisés avec leurs contreparties physiques.

Même un incendie de forêt peut être représenté par un jumeau numérique. Les autorités responsables peuvent prédire la propagation d’un feu et son impact selon la la vitesse fluctuante du vent, l’humidité et la proximité des habitations, puis utiliser ces informations pour guider les évacuations.

Cette technologie a encore été déployée pour affiner la course automobile de Formule 1 par les équipes McLaren et Red Bull. Dans un sport où chaque seconde compte, une simulation peut aider le pilote et l’équipe automobile à savoir quels ajustements peuvent améliorer les performances.

Il existe même un jumeau numérique pour les villes de Shanghai et Singapour. Imaginez toutes les variables a considérer dans la gestion d’une ville. La technologie aide les urbanistes à mesurer la pollution, la consommation d’énergie et à évaluer la circulation, pour améliorer la vie des citoyens.

En mars de cette année, la Commission européenne, en collaboration avec l’Agence spatiale européenne, a annoncé son propre projet de création d’un jumeau numérique de la planète, baptisé Destination Terre (DestinE).

D’ici à la fin de l’année 2024, elle espère disposer de suffisamment de données issues d’observations et de simulations en temps réel pour surveiller et prévoir l’interaction entre les phénomènes naturels et les activités humaines – afin de contribuer à la lutte contre le changement climatique.

Pour l’analyste technologique Rob Enderle, l’évolution de cette technologie pourrait aller encore plus loin: «les premières versions de jumeaux numériques humains capables de penser arriveront avant la fin de la décennie». Et sur le site de l’EPFL on peut lire: «À terme, c’est peut-être vers la création d’un monde miroir, un modèle complet du monde dans son ensemble, peuplé de jumeaux numériques en interaction les uns avec les autres, vers lequel nous nous dirigeons».

Sources : EPFL / BBC / The Conversation / Forbes

DALL·E 2, l’IA qui génère des images d’après votre imaginaire

Un système doté d’intelligence artificielle, capable de générer des images à partir d’un simple texte descriptif, suscite un engouement collectif.

Nommé DALL·E 2, d’après le film WALL-E de Pixar et le peintre surréaliste Salvador Dalí, ce réseau neuronal est en cours de développement par le laboratoire de recherche en intelligence artificielle Open AI, co-fondé par Elon Musk.

Avez-vous déjà vu un koala jouer au basketball?

Grâce à l’apprentissage profond, DALL·E 2 comprend non seulement les objets individuels, mais il apprend aussi les relations entre les objets. Par exemple, il est capable de déduire à quoi ressemblerait un koala tirant au panier, bien qu’il n’a jamais fait cela auparavant.

DALL·E 2 peut également éditer et retoucher des photos de manière réaliste à partir d’une simple description en langage naturel. Il peut remplir ou remplacer une partie d’une image avec des images générées par l’IA qui se fondent parfaitement dans l’original. Il peut même partir d’une image puis produire des variations avec des angles et des styles différents.

Alors que la première version de cette technologie rendait des résultats un peu flous dans un style de dessin animé, DALL·E 2 peut produire des images plus précises dans une variété de styles avec des arrière-plans de meilleure qualité et plus complexes.

Quels sont les risques?

Les préoccupations autour de DALL·E 2, sont les mêmes que celles évoquées pour les deepfakes: la diffusion de désinformation sur Internet. Ses développeurs ont publié un avertissement à cet égard sur le site: «Sans garde-fous suffisants, des modèles comme DALL-E 2 pourraient être utilisés pour générer un large éventail de contenus trompeurs».

«Juridiquement, les questions soulevées par cette technologie sont tout aussi vertigineuses», souligne le journal Next Inpact. Déterminer à qui appartient une image créée par une IA est toujours sujet à débat.

DALL·E 2 n’est pas accessible au grand public, l’algorithme est testé actuellement par  quelques utilisateurs choisis – afin de mieux définir ses capacités et ses limites.

DALL-E Mini

Par contre, il est possible de faire ses propres essais dans une version moins aboutie du logiciel, le DALL·E Mini, pour mieux comprendre de quoi il s’agit. Essayez, c’est assez bluffant.

Voici ce que donne «un chat qui dort dans un fauteuil», «la neutralité suisse» et «Poutine sur un tank». Mais encore (rajouté le 11.07), «Trump peint par Picasso», «Le portrait robot de Mark Zuckerberg» et «John Lemon».

  »..     

Imagen de Google

Google, développe un outil similaire, nommé Imagen, lancé le 24 mai dernier. Nous ne pouvons pas le tester, mais plusieurs exemples créés par l’IA ont été partagés sur leur site.

. .  

Sources :  The Independent / The Verge / DALL-E 2 video

 

Des «enfants Tamagotchi» pour résoudre le problème de la surpopulation

Une scientifique défend l’idée que les préoccupations liées à la surpopulation inciteront les parents à adopter des enfants numériques.

Selon les prédictions de Catriona Campbpell, spécialiste britannique en intelligence artificielle (IA), «les bébés générés par ordinateur seront monnaie courante dès 2070. Au fur et à mesure de l’évolution du métavers, ils deviendront des éléments pleinement acceptés par la société dans la plupart des pays développés».

Grâce à l’imagerie de synthèse et à «l’apprentissage automatique avancé» – une technologie basée sur des algorithmes utilisée par les robots conversationnels pour interagir de manière autonome – ces enfants numériques auront une apparence photoréaliste. Ils seront capables de reconnaître leurs parents et de leur répondre grâce au suivi facial et à la reconnaissance vocale.

Ils sauront discuter et simuler des réactions émotionnelles – comme gazouiller ou rigoler et posséderont d’autres capacités cognitives.

De plus, les gants haptiques, permettant de «sentir» des objets dans la réalité virtuelle, fourniront un retour tactile reproduisant des sensations physiques. Les parents pourront ainsi câliner, nourrir et jouer avec leur progéniture numérique comme s’il s’agissait d’un enfant en chair et en os.

Ils pourront également définir l’âge de leur naissance – du nouveau-né à l’adolescent – et choisir ou non de les faire grandir.

Selon Catriona Campbpell, cette génération qu’elle qualifie de Tamagotchi, en référence aux animaux de compagnie virtuels miniatures qui ont connu un succès fulgurant il y a 25 ans, sera respectueuse de l’environnement et n’épuisera pas la planète de ses ressources naturelles – puisqu’elle n’existera que dans le métavers.

Une simulation d’un bébé virtuel nommé «BabyX» d’un réalisme stupéfiant offre déjà un aperçu de ce futur déconcertant. Il s’agit d’une expérience en cours depuis plusieurs années par l’entreprise néo-zélandaise Soul Machines pour tenter «d’humaniser» l’IA. 

Sources :  Study Finds / The Guardian / The Telegraph

CREDIT photo Palamedes/SWNS