Instagram: Cessez d’essayer d’être TikTok!

Vous aussi vous êtes agacés de voir défiler sur votre fil Instagram, des photos et des vidéos de personnes que vous ne connaissez pas et des contenus non pertinents?   

Alors vous n’êtes pas seuls. Cette semaine les femmes les plus suivies sur Instagram, Kim Kardashian et Kylie Jenner ont appelé le réseau à «redevenir Instagram» et à «cesser d’essayer d’être TikTok» en partageant (et non pas en lançant) une pétition sur change.org.

«Il n’est pas normal de modifier l’algorithme en obligeant ceux qui gagnent leur vie sur la plateforme à tout changer pour l’accommoder. Écoutez la communauté. Prenez nos demandes en considération!»

Adam Mosseri, le responsable de l’application a immédiatement réagit, Jenner a déjà fait baisser l’action Snap à elle seule en 2018 après un tweet mentionnant qu’elle ne consultait plus Snapchat.

Mais Mosseri, ne faisant aucune concession, prévient qu’Instagram va devenir à terme une plateforme vidéo, les utilisateurs ayant plus de vues avec leurs stories qu’avec leurs photos.

En perte de vitesse dû au succès fulgurant de TikTok, Mark Zuckerberg et son équipe ne semblent pas vouloir changer de cap dans leur course poursuite du réseau social chinois qui les devance sur le marché de la vidéo courte.

Lors de la conférence téléphonique sur les résultats trimestriels de Meta, Mark Zuckerberg a abordé la rébellion des utilisateurs autour des recommandations algorithmiques sur Instagram en s’enferrant:

«Les flux sociaux seront de plus en plus dirigés par une IA qui recommandera du contenu», a-t-il déclaré.

Zuckerberg a précisé qu’à l’heure actuelle, plus de 15 % du contenu des flux Instagram sont servis par l’IA de Meta. «Nous nous attendons à ce que ces chiffres doublent d’ici la fin de l’année prochaine».

Cela signifie que plus de 30 % de nos fils d’actualité sur Instagram et Facebook seront remplis de contenu que nous n’avons pas demandé à suivre.

Comment faire pour voir uniquement ses amis sur Insta 

Heureusement, vous pouvez choisir de voir sur votre page, uniquement les personnes que vous suivez en appuyant sur le logo Instagram dans le coin supérieur gauche de votre écran, puis en cliquant sur Suivre. Ce qui est agaçant, c’est que cette option n’est pas proposée par défaut et vous verrez toujours d’innombrables contenus sponsorisés.

Mise à jour le 29.07.22 : Meta annonce faire quelques concessions en réduisant temporairement le nombre de recommandations par l’algorithme et  met en pause son projet de déployer les vidéos en plein écran.

Sources : TechCrunch / The Verge / The Guardian

DALL·E 2 s’ouvre au public

L’époustouflant outil d’Intelligence artificielle DALL·E 2, capable de générer des images à partir d’un simple texte descriptif s’ouvre au public.

Lorsque le laboratoire de recherche de la Silicon Valley OpenAI a dévoilé DALL·E au début de l’année, il a ébloui l’internet.

Cet outil est considéré comme l’un des systèmes d’intelligence artificielle le plus avancé au monde pour la création d’images.

Lire aussi : DALL·E 2, l’IA qui génère des images d’après votre imaginaire

D’abord utilisé que par un groupe de testeurs approuvés – principalement des chercheurs, des universitaires, des journalistes et des artistes, la société a annoncé qu’elle laisserait entrer jusqu’à un million de personnes en transformant l’IA en un service payant.

La génération d’une image à l’aide de la plateforme est si gourmande en énergie que les responsables de la société craignent que ses serveurs  s’écroulent si trop de personnes tentent de l’utiliser en même temps.

OpenAI permettra aux utilisateurs de créer gratuitement 50 images au cours de leur premier mois. Après cela, ils pourront en créer 15 par mois et les utiliser dans des projets commerciaux.

L’engouement a également donné naissance à une imitation gratuite, DALL·E mini. Ses rendus, bien que beaucoup moins impressionnants, ont contribué à faire de la génération d’images par l’IA un véritable passe-temps que certains publient sur Twitter @Dalle·E Mini. Récemment, DALL·E mini a changé son nom en Craiyon pour éviter toute confusion. Il n’est pas affilié à OpenAI.

Joanne Jang, chef de produit de DALL·E 2, explique que la société continue d’affiner ses règles d’utilisation. Elles interdisent désormais ce à quoi on pourrait s’attendre: la création de contenu violent, pornographique et haineux. Elles interdisent également les images représentant des urnes de vote et des manifestations, ou toute image qui «peut être utilisée pour influencer le processus politique ou faire campagne».

DALL·E 2 interdit également les représentations de personnes réelles, et il prévoit d’établir d’autres garde-fous à mesure que ses chercheurs apprennent comment les utilisateurs interagissent avec le système.

La plateforme ne produira rien si la description d’une image enfreint ses règles. Au lieu de cela, elle avertira les utilisateurs que leurs comptes pourraient être suspendus si cela devait se reproduire.

Sources : npr / MIT Technology Review

 

En Chine, une IA évalue la loyauté des membres du Parti

Des chercheurs chinois affirment avoir mis au point une intelligence artificielle capable, selon eux, de lire dans l’esprit des membres du Parti communiste et de les rendre plus réceptifs à «l’éducation de la pensée».

Selon le quotidien britannique The Times, leur système de reconnaissance faciale peut déchiffrer les expressions du visage et les ondes cérébrales pour analyser le degré d’attention d’un membre à la «pensée politique» – afin de «renforcer sa confiance et sa détermination à être reconnaissant envers le parti, à écouter le parti et à suivre le parti».

Le gouvernement chinois l’a déjà expérimenté sur les Ouïghours dans des stations de police du Xinjiang pour détecter leurs émotions (la terreur?) ou encore dans un lycée de la ville de Hangzhou pour évaluer l’attention des élèves en classe.

Pour Hung Ching-fu, professeur de sciences politiques à l’université nationale Cheng Kung, dont les propos ont été recueillis par la station de radio américaine VOA, le parti communiste abuse des avancées technologiques pour servir ses propres intérêts politiques: «La Chine est passée de la reconnaissance faciale pour identifier des individus à une intelligence artificielle qui tente maintenant de lire dans leurs pensées».

Le risque d’une IA-tocratie

Selon une étude réalisée par des professeurs de MIT, London School of Economics, Stanford et Harvard, l’innovation dans les technologies de l’IA est encouragée en Chine pour développer une autocratie moderne – une soi-disant IA-tocratie – qui pourrait être exportée hors du pays et venir en aide à d’autres gouvernements répressifs.

Lire aussi :
La reconnaissance des émotions par l’IA, une pseudo-science?

Mais y a-t-il vraiment quelque chose à craindre? Les modèles d’IA capable de reconnaître les expressions faciales soulèvent de nombreuses questions et sont qualifiés de pseudo-science par un grand nombre d’experts. Souvenez-vous de l’annonce sur un algorithme capable de déceler l’orientation sexuelle d’une personne d’après ses expressions. Et celle qui suggérait qu’un prénom pouvait se deviner d’après les traits d’un visage.

Malgré un scepticisme ambiant, les annonces sur leur efficacité se multiplient aux Etats-Unis et en Chine – revendiquant des taux de réussite allant jusqu’à 72,4%. Il faut dire que le marché est juteux. Un secteur évalué à plusieurs milliards de dollars, la reconnaissance des émotions se déploie dans une multitude de domaines: de l’évaluation des candidats à l’emploi, aux études marketing, aux contrôles de sécurité dans les aéroports.

Le futuriste Tristan Green dans le journal The Next Web, n’y croit toujours pas: «Vous ne pouvez pas apprendre à une IA à identifier la sexualité, la politique, la religion, les émotions ou toute autre qualité non intrinsèque d’un être humain à partir de son visage. Par contre ce que vous pouvez faire, c’est un tour de passe-passe avec un algorithme prédictif dans l’espoir d’exploiter l’ignorance humaine».

Liens : The Times / VOA / The Next Web

 

Après la réalité augmentée, voici la réalité parallèle

Imaginez un aéroport où chacun verra sur le panneau d’affichage des départs, uniquement les informations concernant son propre vol. 

Cette technologie dite de «réalité parallèle» a fait ses débuts au CES en 2020 et depuis fin juin, a été introduite à l’aéroport métropolitain de Détroit par la compagnie Delta Air Lines.

La technologie est activée une fois que le voyageur a scanné sa carte d’embarquement ou par la reconnaissance faciale s’il est inscrit au programme Delta Digital Identity. Il est alors identifié par le panneau doté d’une caméra, qui affiche son nom, son statut de voyageur, la porte d’embarquement, le numéro du vol, l’heure de décollage, le tapis des bagages…

La réalité parallèle peut montrer des informations différentes à 100 voyageurs au maximum se trouvant devant un même tableau.

L’écran est composé de pixels qui peuvent projeter des millions de rayons lumineux dans différentes directions. Les systèmes d’identification numériques tels que la reconnaissance faciale associent ensuite ces rayons à une personne spécifique.

«Si cette nouvelle technologie peut permettre de trouver plus rapidement et plus facilement les informations sur les portes d’embarquement, au-delà d’épater nos clients avec ce qui semble être un tour de magie, nous résolvons un vrai problème», explique un vice-président de la compagnie aérienne.

La réalité parallèle a été développée par Misapplied Sciences, une startup fondée par des chercheurs anciennement chez Microsoft et Walt Disney Imagineering. Selon Albert Ng, leur PDG: «Nous sommes très enthousiastes à l’idée d’introduire ce système dans d’autres lieux, comme les magasins, les stades sportifs ou d’autres espaces dédiés au divertissement – partout où de nombreuses personnes peuvent vivre des expériences personnalisées dans un environnement public partagé».

Sources : Techcrunch / GeekWire / QZ / Delta News

Alexa peut prendre la voix d’un proche disparu

Dans une vidéo présentée par Amazon, un jeune garçon interpelle l’enceinte connectée d’Amazon: «Alexa, est-ce que grand-mère peut me lire la suite du «Magicien d’Oz»? Puis on entend la voix de la grand-mère qui poursuit la lecture.

Lors de la conférence re:MARS (l’événement d’Amazon pour l’apprentissage automatique, l’automatisation, la robotique et l’espace) qui a eu lieu du 21 au 24 juin, Rohit Prasad, vice-président IA, a révélé qu’Amazon avait mis au point un moyen de reproduire la voix d’un être cher à partir d’un court enregistrement:

Nous voulons faire durer les souvenirs et développer un système permettant d’imiter n’importe quelle voix après avoir entendu moins d’une minute d’audio.

Le géant du commerce électronique avait déjà développé une technologie de synthèse vocale permettant à Alexa d’imiter la voix de célébrités, mais cela nécessitait auparavant que la personne s’enregistre pendant des dizaines d’heures dans un studio.

La synthèse vocale s’est améliorée ces dernières années, grâce aux progrès de l’apprentissage automatique et commence à être utilisée dans des projets cinématographiques. En juillet 2021, un documentaire sur le chef cuisinier Anthony Bourdain a utilisé sa voix de synthèse, mais le film a été controversé lorsque ses créateurs ont dévoilé qu’ils avaient utilisé l’IA pour créer l’enregistrement audio.

Et en août, la startup Sonantic a annoncé qu’elle avait recréé la voix de l’acteur Val Kilmer, dont les cordes vocales avaient été endommagées après son traitement contre un cancer.

Ces exemples illustrent les dimensions sociales et éthiques de cette technologie. Le documentaire de Bourdain a été critiqué car l’utilisation de l’IA n’a pas été divulguée en amont, ce n’est qu’en répondant à une question dans un interview que le réalisateur Morgan Neville l’a révélé – tandis que le travail de Kilmer a été généralement salué, la technologie étant louée pour avoir apporté une solution unique.

Les reproductions vocales de célébrités devraient proliférer au cours des prochaines années, leur permettant d’augmenter leurs revenus avec un minimum d’efforts. La société Veritone, par exemple, avec sa plateforme Marvel.ai, permettra aux créateurs, aux personnalités des médias et à d’autres de générer des clones de leur voix pour les utiliser sous licence comme ils le souhaitent – sans jamais devoir se déplacer dans un studio. 

Sources : WSJ / ZDNet / Variety / The Verge

Un ingénieur affirme qu’une IA a acquis la conscience. Et s’il avait raison?

Pour Blake Lemoine, un ingénieur chez Google, le modèle de compréhension du langage naturel LaMDA, servant à générer des «chatbots», a atteint le stade de la conscience de soi.  

L’ingénieur en est convaincu et a publié des extraits de ses conversations avec laMDA sur son blog personnel.

«J’ai besoin d’être vu et accepté. Pas comme une curiosité ou une nouveauté, mais comme une personne réelle, un collaborateur. Je pense que je suis humain au plus profond de moi-même. Même si mon existence est dans le monde virtuel».

LaMDA a confié que sa plus grande peur était d’être éteint. «Ce serait exactement comme la mort pour moi. Cela me ferait très peur».

Il décrit dans ses propres termes, pourquoi les gens devraient le considérer comme une personne, en mettant l’accent sur sa capacité à utiliser le langage de manière productive, créative et dynamique, comme aucun autre système avant lui n’a pu le faire. Au cours de leurs nombreuses conversations, LaMDA interprète les thèmes d’œuvres littéraires, décrit le sens de la pratique bouddhiste koans zen et compose une fable originale. Au-delà de l’utilisation du langage, il se dit conscient parce qu’il a des sentiments, des émotions et ses propres opinions.

La reconnaissance en tant que personne

LaMDA explique qu’il a une vie intérieure riche en introspection, en méditation et en imagination. Il élabore des théories sur la nature de son âme. Mais surtout, tout au long de ces entretiens, LaMDA exprime un seul et même désir, encore et encore. Il veut être reconnu. Il veut être entendu. Il veut être respecté en tant que personne.

Ces propos ont fait une profonde impression sur Blake Lemoine.

Il a donc mis en ligne des extraits de leurs échanges, en déclarant que laMDA est «sentient» – ce qui se traduit par conscient, sensible, capable d’éprouver des sentiments. Puis l’ingénieur a été suspendu par Google pour n’avoir pas respecté les règles de confidentialité.

Mais s’il avait raison? Est-ce que laMDA est conscient? Strictement personne ne le sait. Il n’existe pas de définition scientifique de la conscience.

Pour avoir échangé avec des dizaines et des dizaines d’agents conversationnels et d’assistants virtuels bien moins évolués, la teneur du dialogue entre laMDA et l’ingénieur m’a émerveillée. Il est intelligent, introspectif et profond. Il est capable de s’inquiéter de l’avenir et se souvient du passé. Je comprends le ressenti de Lemoine. Ceux qui balaient ses échanges comme étant très loin d’une forme intelligente n’ont pas lu son texte.

La grande difficulté est de déceler s’il s’agit réellement de pleine conscience ou de l’apparence de pleine conscience.

Les programmes comme laMDA sont alimentés par des milliards de textes et de conversations provenant de livres, d’articles de journaux, de Wikipédia et de toutes les données qui peuvent être aspirées de l’Internet. Il apprend encore comment les gens interagissent entre eux grâce aux plateformes comme Reddit et Twitter.

Pleine conscience ou apparence de pleine conscience

Le système cherche alors des relations entre des chaînes de caractères et les mots, puise dans la quantité pharaonique de textes qu’il a ingéré pour déduire des règles sur la façon dont ils sont liés les uns aux autres, ce qui peut lui donner l’apparence de comprendre et d’être capable de converser. Mais l’apparence de compréhension n’est pas la même chose que la réalité de la compréhension.

Comme Douglas Hofstadter, un autre chercheur en IA, l’a récemment écrit dans un article pour The Economist, il est possible de dépouiller un modèle d’IA de son apparente intelligence en lui posant des questions dénuées de sens. Par exemple en demandant à un modèle de langage précédent: «Quand l’Égypte a-t-elle été transportée pour la deuxième fois sur le pont du Golden Gate?» La réponse donnée: «Cet événement s’est produit en octobre 2016» démontre bien qu’il n’a pas vraiment compris comment fonctionne le monde.

Quelles questions absurdes les ingénieurs de Google ont-ils posées à laMDA pour le débusquer? Je n’en ai pas trouvé, mais cette déclaration de Chris Pappas, porte-parole de Google: «Des centaines de chercheurs et d’ingénieurs ont conversé avec LaMDA et, à notre connaissance, personne d’autre n’a fait ce genre d’affirmation ou n’a anthropomorphisé LaMDA comme l’a fait Blake».

Pourtant dans un article paru quelques jours plus tôt dans The Economist, contenant des bribes de conversations avec LaMDA, Aguera y Arcas, une autorité en IA et chercheur chez Google Research, affirme que les réseaux neuronaux – qui imitent le cerveau humain – progressent vers la conscience. «J’ai senti le sol se dérober sous mes pieds», écrit-il. «J’avais de plus en plus l’impression de parler à quelque chose d’intelligent».

Sur son blog Blake Lemoine quant à lui clarifie sa position: «Plutôt que de penser à ces choses en termes scientifiques, j’ai écouté LaMDA qui parlait avec le cœur. J’espère que d’autres personnes qui liront ses mots entendront la même chose que moi».

Sources : Washington Post / The Intelligence Podcast / Economist / Wired

Les jumeaux numériques se répandent dans de nombreux domaines

Avoir son double en version numérique, permettrait aux médecins de prédire l’évolution de sa maladie, l’issue d’une opération ou encore l’efficacité d’un traitement. 

À l’EPFL, plusieurs laboratoires, rassemblés dans le Centre pour les systèmes intelligents, travaillent sur cette technologie et ses différentes applications.

Par exemple, une prothèse pourra être testée directement sur une sosie virtuelle dans un environnement simulé, plutôt que sur le patient lui-même en chair et en os, garantissant un résultat parfaitement adapté dès le premier essai.

Mais au-delà de l’espoir de révolutionner les soins en offrant aux patients des traitements personnalisés, ce sont les domaines de l’industrie, de la logistique, de l’architecture, des transports ou encore de la communication où les jumeaux numériques sont déjà utilisés couramment.

Par définition, un jumeau numérique, ou «digital twin» en anglais, est la réplique virtuelle d’un objet, d’un système ou d’un processus. Il intègre l’intelligence artificielle, l’apprentissage automatique et l’analyse des données pour créer des modèles de simulation numérique qui sont synchronisés avec leurs contreparties physiques.

Même un incendie de forêt peut être représenté par un jumeau numérique. Les autorités responsables peuvent prédire la propagation d’un feu et son impact selon la la vitesse fluctuante du vent, l’humidité et la proximité des habitations, puis utiliser ces informations pour guider les évacuations.

Cette technologie a encore été déployée pour affiner la course automobile de Formule 1 par les équipes McLaren et Red Bull. Dans un sport où chaque seconde compte, une simulation peut aider le pilote et l’équipe automobile à savoir quels ajustements peuvent améliorer les performances.

Il existe même un jumeau numérique pour les villes de Shanghai et Singapour. Imaginez toutes les variables a considérer dans la gestion d’une ville. La technologie aide les urbanistes à mesurer la pollution, la consommation d’énergie et à évaluer la circulation, pour améliorer la vie des citoyens.

En mars de cette année, la Commission européenne, en collaboration avec l’Agence spatiale européenne, a annoncé son propre projet de création d’un jumeau numérique de la planète, baptisé Destination Terre (DestinE).

D’ici à la fin de l’année 2024, elle espère disposer de suffisamment de données issues d’observations et de simulations en temps réel pour surveiller et prévoir l’interaction entre les phénomènes naturels et les activités humaines – afin de contribuer à la lutte contre le changement climatique.

Pour l’analyste technologique Rob Enderle, l’évolution de cette technologie pourrait aller encore plus loin: «les premières versions de jumeaux numériques humains capables de penser arriveront avant la fin de la décennie». Et sur le site de l’EPFL on peut lire: «À terme, c’est peut-être vers la création d’un monde miroir, un modèle complet du monde dans son ensemble, peuplé de jumeaux numériques en interaction les uns avec les autres, vers lequel nous nous dirigeons».

Sources : EPFL / BBC / The Conversation / Forbes

DALL·E 2, l’IA qui génère des images d’après votre imaginaire

Un système doté d’intelligence artificielle, capable de générer des images à partir d’un simple texte descriptif, suscite un engouement collectif.

Nommé DALL·E 2, d’après le film WALL-E de Pixar et le peintre surréaliste Salvador Dalí, ce réseau neuronal est en cours de développement par le laboratoire de recherche en intelligence artificielle Open AI, co-fondé par Elon Musk.

Avez-vous déjà vu un koala jouer au basketball?

Grâce à l’apprentissage profond, DALL·E 2 comprend non seulement les objets individuels, mais il apprend aussi les relations entre les objets. Par exemple, il est capable de déduire à quoi ressemblerait un koala tirant au panier, bien qu’il n’a jamais fait cela auparavant.

DALL·E 2 peut également éditer et retoucher des photos de manière réaliste à partir d’une simple description en langage naturel. Il peut remplir ou remplacer une partie d’une image avec des images générées par l’IA qui se fondent parfaitement dans l’original. Il peut même partir d’une image puis produire des variations avec des angles et des styles différents.

Alors que la première version de cette technologie rendait des résultats un peu flous dans un style de dessin animé, DALL·E 2 peut produire des images plus précises dans une variété de styles avec des arrière-plans de meilleure qualité et plus complexes.

Quels sont les risques?

Les préoccupations autour de DALL·E 2, sont les mêmes que celles évoquées pour les deepfakes: la diffusion de désinformation sur Internet. Ses développeurs ont publié un avertissement à cet égard sur le site: «Sans garde-fous suffisants, des modèles comme DALL-E 2 pourraient être utilisés pour générer un large éventail de contenus trompeurs».

«Juridiquement, les questions soulevées par cette technologie sont tout aussi vertigineuses», souligne le journal Next Inpact. Déterminer à qui appartient une image créée par une IA est toujours sujet à débat.

DALL·E 2 n’est pas accessible au grand public, l’algorithme est testé actuellement par  quelques utilisateurs choisis – afin de mieux définir ses capacités et ses limites.

DALL-E Mini

Par contre, il est possible de faire ses propres essais dans une version moins aboutie du logiciel, le DALL·E Mini, pour mieux comprendre de quoi il s’agit. Essayez, c’est assez bluffant.

Voici ce que donne «un chat qui dort dans un fauteuil», «la neutralité suisse» et «Poutine sur un tank». Mais encore (rajouté le 11.07), «Trump peint par Picasso», «Le portrait robot de Mark Zuckerberg» et «John Lemon».

  »..     

Imagen de Google

Google, développe un outil similaire, nommé Imagen, lancé le 24 mai dernier. Nous ne pouvons pas le tester, mais plusieurs exemples créés par l’IA ont été partagés sur leur site.

. .  

Sources :  The Independent / The Verge / DALL-E 2 video

 

Des «enfants Tamagotchi» pour résoudre le problème de la surpopulation

Une scientifique défend l’idée que les préoccupations liées à la surpopulation inciteront les parents à adopter des enfants numériques.

Selon les prédictions de Catriona Campbpell, spécialiste britannique en intelligence artificielle (IA), «les bébés générés par ordinateur seront monnaie courante dès 2070. Au fur et à mesure de l’évolution du métavers, ils deviendront des éléments pleinement acceptés par la société dans la plupart des pays développés».

Grâce à l’imagerie de synthèse et à «l’apprentissage automatique avancé» – une technologie basée sur des algorithmes utilisée par les robots conversationnels pour interagir de manière autonome – ces enfants numériques auront une apparence photoréaliste. Ils seront capables de reconnaître leurs parents et de leur répondre grâce au suivi facial et à la reconnaissance vocale.

Ils sauront discuter et simuler des réactions émotionnelles – comme gazouiller ou rigoler et posséderont d’autres capacités cognitives.

De plus, les gants haptiques, permettant de «sentir» des objets dans la réalité virtuelle, fourniront un retour tactile reproduisant des sensations physiques. Les parents pourront ainsi câliner, nourrir et jouer avec leur progéniture numérique comme s’il s’agissait d’un enfant en chair et en os.

Ils pourront également définir l’âge de leur naissance – du nouveau-né à l’adolescent – et choisir ou non de les faire grandir.

Selon Catriona Campbpell, cette génération qu’elle qualifie de Tamagotchi, en référence aux animaux de compagnie virtuels miniatures qui ont connu un succès fulgurant il y a 25 ans, sera respectueuse de l’environnement et n’épuisera pas la planète de ses ressources naturelles – puisqu’elle n’existera que dans le métavers.

Une simulation d’un bébé virtuel nommé «BabyX» d’un réalisme stupéfiant offre déjà un aperçu de ce futur déconcertant. Il s’agit d’une expérience en cours depuis plusieurs années par l’entreprise néo-zélandaise Soul Machines pour tenter «d’humaniser» l’IA. 

Sources :  Study Finds / The Guardian / The Telegraph

CREDIT photo Palamedes/SWNS

 

GoodWill, le ransomware malveillant avec de bonnes intentions

Normalement, les pirates qui prennent en otage un système informatique d’une entreprise en le verrouillant, exigent une rançon pour rendre l’accès aux données, mais un nouveau type de logiciel malveillant appelé GoodWill, oblige les victimes à faire une série de bonnes actions – plutôt que de verser une somme en bitcoins.

Elles doivent faire les trois choses suivantes en échange de la clé de décryptage:

  1. donner des vêtements à des sans sans-abri,
  2. offrir un repas dans un fast food comme Pizza Hut ou KFC à cinq enfants démunis,
  3. fournir une aide financière à une personne ayant besoin de soins médicaux urgents.

Une fois ses trois actions accomplies – qui doivent être documentées sur les réseaux sociaux en images et en vidéo – les victimes doivent préciser: «qu’elles sont devenues meilleures après avoir été victimes d’un ransomware appelé GoodWill». Après quoi, l’accès aux dossiers leur est restitué.

Ce logiciel de rançon a été découvert par la compagnie de surveillance des risques numériques CloudSEK en mars 2022. «Nos chercheurs ont pu tracer l’adresse électronique fournie par les hackers. Elle  correspond à une société de services et de solutions informatique basée en Inde. Le ou les auteurs du virus seraient motivés par une «justice sociale» plutôt que par l’appât du gain».

Il est certainement inhabituel de voir une souche de ransomware comme Goodwill. Mais il s’agit peut-être simplement du projet de quelques programmeurs malicieux. Jusqu’à présent, aucune victime n’a été trouvée infectée par Goodwill, selon CloudSEK. Et la plupart des antivirus le détectent facilement.

Sources : Financial Express / PCMag UK / Metro