Contrer Fake news et les Deep fakes par des mesures pragmatiques

Désinformation et culture du faux

La désinformation, n’est pas une innovation technologique, en revanche les technologies du numérique la favorise. La création des contenus de toute nature est également favorisée par l’usage des technologies du numérique qui est mise à la portée de chaque internaute. Les facilités de mettre en relation, de poster, de cliquer, de noter, de suivre, de transmettre, permettent une diffusion quasi gratuite et instantanée de tous les contenus.

Les fausses informations (Fake news) sont de vraies – fausses informations, crées explicitement pour manipuler l’opinion des personnes à qui elles sont destinées. Il est désormais possible, en utilisant les techniques d’apprentissage profond de l’intelligence artificielle, de créer de fausses- vraies informations (Deep fake). Cela permet de modifier, de remplacer des photos, de substituer et permuter tout ou partie d’images ou de contenus sonores, de fabriquer de nouveaux contenus sur la base de modèle à imiter, etc. Le faux – vrai discours de Barak Obama en témoigne comme d’ailleurs la vidéo du président argentin Mauricio Macri, transformé en Hitler ou celui d’Angela Merkel présentée sous les traits de Donald Trump par exemple.

Depuis 2017, le phénomène de trucage de vidéo, initialement appliqué pour mettre en scène des personnalités sur des vidéos pornographiques contrefaites, prend de l’ampleur et se décline pour alimenter la satire mais surtout la manipulation à des fins politiques et de déstabilisation. Cela inquiète les pouvoirs publics et questionne le rôle et les responsabilités de ces derniers mais aussi des fournisseurs de services et intermédiaires techniques, comme celles des internautes.

Bien que le trucage d’image existe depuis longtemps, notamment facilité par des logiciels tels que Photoshop par exemple et bien que cela soit connu, ces images « embellies » sont toujours trompeuses et distordent la réalité.

La modification, « l’amélioration » d’images sont souvent réalisées pour mettre en valeur des produits à des fins commerciales et relever d’une démarche publicitaire, qui est censée être légalement cadrée. Toutefois, la prolifération d’images retouchées contribue à un certain formatage de la pensée et de modes d’action par création de nouveaux standards esthétiques. Le nombre s’imposant de facto comme référence.

Légitimé par une démarche artistique, le cinéma recourt aux trucages, aux effets spéciaux ou encore à des cascadeurs professionnels. L’illusion est alors légale puisque « c’est du cinéma ! ». Les trucages sont identifiables, explicables et expliqués.

Les fake news entretiennent d’une certaine manière des rapports à la réalité similaires à ceux du roman. Le titre de la nouvelle « Le mentir-vrai » de Louis Aragon parue en 1964, résume à lui seul la situation. Le romanesque est, en brouillant les frontières au réel, à la fois invention et non-invention, imaginaire et fragment de réalité.

Avec Internet, les fake news et les deep fakes, l’illusion de vérité est totale, avec pour l’utilisateur, l’impossibilité de différencier le vrai du faux. Le « vrai » est fabriqué par codage informatique, sans pour autant être basé sur des faits réels et vérifiables. La réalité n’a pas besoin d’exister car seul compte l’existence de contenus numériques qui sont diffusés, qui sont vus, écoutés et qui sont likés ! Les fake news sont par excellence devenues de nouvelles armes au service de la propagande, de la déstabilisation, du harcèlement ou encore de la diffamation.

 

L’important, c’est le clic non la véracité

Dès lors que les modèles économiques des fournisseurs de service des plateformes de mise en relation sont basés sur la connectivité, l’interaction des usagers, leur temps d’attention, sur la consommation de contenus, l’exploitation des données et des méta-données, sur la publicité en ligne, les fakes news sont comme n’importe quels contenus des vecteurs de rentabilité. Que les contenus soient satiriques ou diffamatoires, préjudiciables à l’intégrité physique et morale des personnes, drôles ou pas, en fait qu’ils soient vrais ou faux importe peu, pourvus qu’ils soient diffusés et « vus » !

Avec les réseaux sociaux, les convictions personnelles peuvent être partagées à l’infini et peuvent à force, prendre l’apparence de faits. Poster, c’est exister ! Il y a ceux qui produisent des contenus, ceux qui les consomment. Il y a ceux qui transmettent délibérément ou inconsciemment des fausses nouvelles, ceux qui retransmettre, qui aiment ou qui démentent (mais ce faisant contribuent à répéter), ceux qui sont rétribués pour le faire et ceux qui ne le sont pas… La viralité sur Internet est un facteur de succès !

 

L’ère de l’opinion et de la post-vérité

Il semble que l’ère de l’information telle que promue au début du Web il y tout juste une trentaine d’années se soit muée en celle de l’opinion, renforcée de manière concomitante par l’ère de la post-vérité. Souhaite-t-on un web amplificateur d’opinions ?

Une contre-vérité est un mensonge, une post-vérité est au-delà du mensonge. C’est la capacité de dire n’importe quoi – sans limite, sans fondement réel basé sur des faits objectivables et vérifiables. Avec des faits qualifiés désormais d’alternatifs, en fonction des circonstances, nul besoin est de mentir, de faire semblant. Il suffit de les créer et de les faire exister sur Internet, pour modeler l’opinion publique, créer des émotions et des opinions. Lorsque le réel est un problème pour certains, ces derniers n’hésitent pas à le modifier au travers du numérique. Rumeurs et anonymat sont les piliers de la post-vérité. La réalité des contenus est confondue avec l’existence des contenus. Sans compter les divers trolls et robots de discussion qui industrialisent la diffusion de contenus.

Il semble qu’en ayant perdu nos données personnelles et le goût de l’intimité et du respect de la vie privée nous ayons également renoncé au respect de la vérité ! Cela est sans doute lié « au gratuit » et au sentiment d’impunité que procure le fait de pouvoir communiquer à distance, caché derrière un écran, caché par des intermédiaires techniques, de possibles fausses identités, d’identités usurpées et l’anonymat. Ce qui par ailleurs donne également plus de pouvoir et de capacités à certains pour harceler et diffuser des contenus violents.

 

Des mesures pour renforcer la confiance

 Les faussaires ont toujours existé, il suffit pour s’en convaincre de penser aux fabricants de faux billets pour lesquels des solutions techniques ont été apportées pour rendre la fabrication de faux plus difficile et leur identification plus facile. Des mesures complémentaires relevant du droit et de son application, en matière de justice et police, ont également été développées pour mieux maitriser ce type de délits et pénaliser leurs auteurs.

De manière analogue, si l’on ne peut empêcher totalement la fabrication de fake news et de deep fake, des incitations à ne pas les générer, les diffuser comme des solutions pour les détecter, peuvent exister. Ainsi par exemple il peut exister différents types de mesures. Sans vouloir être exhaustif, en voici quelques-unes structurées autour de quatre axes:

Mesures relevant de l’éducation

  • Sensibilisation et éducation aux médias de la population. Développement de l’esprit critique des personnes, de la compréhension des notions de liberté d’expression et de protection des droits humains fondamentaux.
  • Compréhension des risques et des conséquences liées à la désinformation.
  • Apprendre à identifier qui produit une information (une désinformation), pour quelle finalité et quels bénéfices.
  • Apprentissage à décoder les images, les vidéos, leurs méta-données, à vérifier leur origine, à rechercher « leurs semblables », à fabriquer des deep fakes,…
  • Maitriser les différents niveaux, degrés de lecture d’un contenu.
  • Réapprendre que pour exister il n’est pas forcément nécessaire de laisser des traces électroniques, des commentaires, de rediffuser des opinons, etc. et que les convictions ne sont pas des faits.

Mesures d’ordre technique

  • Mises-en-œuvre de mécanismes cryptographiques. Les contenus sensibles, notamment lors de périodes électorales, devraient être signés par des techniques cryptographiques de chiffrement des données qui assureraient leur authenticité et leur intégrité (notion de marquage de documents). Des solutions techniques existent déjà !
  • Des outils relevant de l’informatique forensique appliquées aux vidéos devraient être largement disponibles pour permettent de mieux détecter des faux, notamment la manipulation des visages et de la voix.
  • Disposer d’outils de détection et d’identification des fake news. Le problème majeur est de savoir qui est habilité à distinguer et à qualifier de vrai ou de faux un contenu, sans que cela s’apparente à une nouvelle forme de censure.
  • Limiter la visibilité des sites, des comptes à l’origine de fake news, les bloquer.
  • Être en mesure d’identifier l’origine, l’auteur de contenus.

Mesures incitatives, économiques et organisationnelles

  • Valoriser la recherche et la dénonciation de « faux » (mettre en place des incitations (de type « bug bounty »), des processus et des structures organisationnelles qui le permettent (agence de notification des faux),…). Disposer de procédures et moyens permettant de dénoncer des fake news (plateforme, centrale d’annonce et d’enregistrement), au niveau national et mettre en réseaux tous les centres de ce type au niveau européen, voire international.
  • Favoriser le dialogue entre les acteurs public et privés quant à la responsabilité des contenus (création, mise à disposition, destruction).
  • Tarir les ressources publicitaires des comptes qui contribuent à la diffusion de fake news.
  • Identifier les publicités à caractère politique.
  • Offrir aux citoyens des moyens complémentaires pour prendre des décisions en toute connaissance de cause.
  • Soutenir la liberté de la presse et disposer de médias et de compétences de vérification de faits indépendants.
  • Développer des instruments de réponses au fake news.

Mesures règlementaires et juridiques

  • Des référentiels de bonnes pratiques, des règlementations et des lois peuvent exister pour mettre des limites aux comportements abusifs liés à la désinformation et à la manipulation de l’information. Il existe depuis septembre 2018, un Code de pratique relatif à la désinformation énoncé par la Commission européenne. Un plan d’action contre la désinformation a été adopté pour renforcer la coopération entre les États membres et les institutions de l’Union. En France, une Loi sur la manipulation de l’information en période électorale existe depuis décembre 2018.
  • Doter les pays de mesures qui permettent de sanctionner l’utilisation illégale de données à caractère personnel pour influencer délibérément le résultat des élections.
  • Instaurer une obligation de transparence envers les plates-formes numériques pour tout ce qui concerne des contenus sponsorisés (cela comprend notamment le ciblage publicitaire des personnes à des fins politiques).

 

Quelques perspectives

Dès lors que les électeurs et les citoyens sont considérés comme des consommateurs, gérés comme le sont des clients, que les campagnes électorales ressemblent plus à une campagne de commercialisation de la vie politique et de celle des politiciens, il n’est pas surprenant qu’il existe de la publicité politique en ligne et toutes sortes de mécanismes de manipulations de l’opinion. Il reste à trouver comment règlementer, comment éduquer les individus pour qu’ils exigent de ne pas être restreints à des rôles de consommateurs non éclairés, de ne pas être considérés comme des robots de chair et de sang exploitables à l’infini.

Pour faire face au règne de la défiance et du mensonge, osons donner le goût de la recherche de la vérité, de celle qui relève d’une quête philosophique, voire spirituelle. Elle demande du courage, de la connaissance, de la réflexion, de l’effort, du temps long… C’est une tâche complexe qui s’appuie sur la diversité des sources et des acteurs, sur la liberté et la diversité, non sur l’unification et l’uniformisation de l’information.

 

 

 

 

 

 

Fuites de données, comptes piratés, mots de passes dans la nature

Un éternel recommencement

La mode est un éternellement recommencement, le piratage informatique et la fuite de données aussi. L’annonce faite en janvier 2019 par Troy Hunt, expert sécurité, directeur régional de Microsoft Australie, via son site d’information Have I Been Pwned (HIBP) (“j’ai été mis en gage” – j’ai été dépossédé de mes données) en témoigne. Le site répertorie les principales brèches de sécurité et fuites de données pour aider les personnes à identifier si elles en ont été victimes ou non et pour faire des recommandations (y compris en faveur des solutions Microsoft).

Des collections particulières

Cette gigantesque fuite de données communiquée sous le nom de Collection # 1 résulte de nombreux piratages (environ 12 000 dont certains remontent à plusieurs années) et concernerait 2,7 milliards d’identifiants, près de 773 millions d’adresses distinctes et plus de 21 millions de mots de passe. De nouvelles fuites de données (Collection # 2 à 5) ont été révélées dans la foulée et correspondrait à 2,2 milliards d’adresses email et de mots de passe associés provenant de vols massifs de données sur des plateformes de fournisseurs de services comme par exemple en 2016 Yahoo (plus de 500 millions de comptes), Linkedn (117 millions) ou encore Dropbox (68 millions). Le nombre de comptes utilisateurs piratés chez leur fournisseurs se compte généralement en millions (500 millions pour les hôtels Marriott, 92 millions pour la plateforme de généalogie et de test ADN  MyHeritage en 2018, 57 millions pour Uber et 143 millions pour l’agence de crédit Equifax  en 2017, 412,2 millions pour le site de mise en relation Adult Friend Finder en 2016, 145 millions pour Ebay, 76 millions pour JP Morgan Chase en 2014 pour ne donner que quelques exemples).

Une collection est une accumulation d’objets ayant un intérêt, une valeur. La valeur de ces collections n’est pas liée à la rareté de l’information mais à son grand nombre et aux possibilités d’exploitation qu’elle autorise.

Applications concrètes du vol massifs de données

Ainsi, l’usurpation des paramètres de connexion d’un individu, permet de réaliser des actions ciblées de phishing et d’ingénierie sociale afin de manipuler une personne, la leurrer, la conduire à réaliser des actions spécifiques en vue d’escroqueries, d’intrusions dans des systèmes, de la diffusion de programmes malveillants (virus, prise de contrôle de la machine utilisateur pour des attaques en dénis de service, cryptolocker, cheval de Troie, …), etc. Cela permet également de faire porter la responsabilité d’actions malveillantes sur la personne dont le compte a été usurpé, de faire des campagnes de spam, de faire blacklister des adresses email, d’usurper des identités numériques sur des réseaux sociaux, de compromettre des contenus etc. …

Posséder un mot de passe est généralement synonyme de posséder le “Sésame ouvre – toi” de tous les comptes d’un internaute. Même si ce dernier possède des mots de passe différents, il est souvent aisé de déduire comment il les choisi.

Si toutes les informations rendues publiques ne sont pas directement exploitables et profitables il n’empêche que les outils d’analyse des données permettent de retrouver “une aiguille dans une meule de foin” et de tirer parti d’une information relative à l’identification d’une personne. Cela permet par exemple, de reconstituer des organigrammes d’entreprises, des annuaires professionnels de personnes y compris de celles travaillant pour des services sensibles gouvernementaux (justice, police, affaires étrangères, défense, renseignement, …) ou d’institutions privées, de faire fuiter des informations concernant des personnalités politiques, etc. par ailleurs, être en mesure de savoir qui communique avec qui, de récupérer des carnets d’adresses, de créer de “vraies” fausses informations et de faire croire que des contenus émanent de telle ou telle personne, peut servir des stratégies d’influence ou de déstabilisation.

Le contrôle d’accès en question

Cette énième affaire de mots de passe révélés, met en lumière la fragilité des barrières de protection des systèmes basées sur le contrôle d’accès à un seul facteur d’authentification (le mot de passe) et sur la difficulté qu’ont les fournisseurs de services à de protéger correctement les mots de passe de leurs clients, à moins que cela ne soit pas une priorité “business” ou que cela relève de la négligence.

Identifier, être en mesure de prouver l’identité en l’authentifiant constitue une brique de base indispensable au transaction commerciales et financières (consommation, paiement, suivi du consommateur, marketing, publicité ciblée, profilage, traçabilité, …).

Les processus d’identification et d’authentification sont au cœur des mécanismes de contrôle d’accès contribuant à rendre accessible ou non, des ressources informatiques, selon des critères prédéfinis.

Substituer ce que l’on sait par ce que l’on est (contrôle d’accès biométrique, empreinte digitale, rétine, …), ou par ce que l’on possède (jeton d’authentification, clé USB, puce électronique, …) sont des alternatives ou des techniques complémentaires à l’usage de la connaissance de secrets. En fait, toutes ces techniques nécessitent de garder de manière sécurisée des informations du côté du serveur d’authentification et ne résout pas le problème de la fuite possible de ces informations, que même si elles sont chiffrées (cryptées) peuvent parfois être déchiffrées (cas de Collection # ).

Changer de mots de passe régulièrement est toujours une possibilité, l’usage d’un système de mot de passe unique est encore mieux en attendant de pouvoir s’affranchir totalement de l’usage de mots de passe, mais peut être que le remède serait alors pire que le mal …

Depuis 2013, le consortium industriel américain “Fast IDentity Online” (l’Alliance FIDO) promeut l’usage intégré de plusieurs techniques d’authentification, ainsi que des standards d’authentification Web Authentication (WebAuthn) standard (avec le World Wide Web Consortium (W3C)) et du Client to Authenticator Protocol (CATP). L’ensemble étant soutenus par les acteurs hégémoniques du Net, de la téléphonie, des organismes de paiement comme Google, Microsoft, Amazon, Alibaba, Facebook, Intel, Lenovo, Paypal, Sansung, Visa par exemple, membres de “l’alliance” et dont les solutions sont intégrées dans leurs produits. Cette même Alliance est en mesure de certifier les partenaires qui adoptent ses mécanismes d’authentification…

Dénoncer des problèmes de mauvaise gestion de mots de passe pour inciter à une meilleure qualité de gestion des mécanismes d’authentification est une bonne chose. Migrer vers d’autres mécanismes d’authentification, qui déplace le problème de la sécurité sans pour autant le résoudre car les solutions de sécurité doivent être sécurisées avec une robustesse efficace dans le temps (ce qui n’est pas encore prouvé), ressemble à une fuite en avant technologique. L’incitation à passer par des solutions “FIDO” fidélisera le consommateur à une solution unique valable pour tout, ce qui facilitera également son profilage et ajoutera de la dépendance à la dépendance.

 

 

La créance Facebook

Facebook a 15 ans aujourd’hui. Impossible de ne pas nous interroger sur certains aspects de la face cachée de cette plateforme qui en quelques années a su s’imposer comme créancier de nos vies numériques.

La créance Facebook, est le fait de croire en la seule vérité issue de Facebook et d’y ajouter foi, alors qu’il est notoire que des informations puissent être fausses, manipulées, orientées notamment à des fins politique ou commerciale (Cf. scandale Facebook – Cambridge Analytica).

Le réseau social, peut également être un catalyseur du harcèlement, de l’expression de la haine, de la violence, de la diffamation, de la tromperie et de la séduction. Véritable boite de Pandore ouverte à plus de 2 milliards d’usagers, Facebook est pour certains individus et organisations incontournables, que cela soit par le réseau social à proprement parlé, ou via ses divers services d’interaction (Whatapps, Instagram, Facebook market, Messenger, Oculus,…).

La créance Facebook, c’est aussi avoir la croyance que le réseau social peut être de confiance, mais c’est surtout être en tant qu’usager en situation ou le créancier, le propriétaire du réseau, impose ses conditions d’utilisation, surveille, contrôle, propose, censure. Le créancier est en mesure d’exiger de ses débiteurs de se comporter de telle ou telle manière, de livrer leurs comportements, sentiments, goûts, localisations, contacts. Les usagers de Facebook acceptent implicitement que leurs données soient analysées, exploitées, commercialisées en échange d’un service dit gratuit, alors qu’ils le payent en nature.

Outre les données délivrées par les utilisateurs, il existe celles déduites, générées par croisement des données issues de plusieurs sources (applications, usages, déplacements, …). Des profils fantômes (shadow profiles) peuvent exister à l’insu des internautes. Séduire les internautes passent aussi par le fait de pouvoir les payer pour les espionner. Tout s’achète et tout se vend, les amis, les faux profils, les entités qui produisent des données et qui alimentent les conversations ou encore comme celles qui les analysent pour ne donner que quelques exemples.

La créance numérique est une créance de sang puisque les flux informationnels irriguent et conditionnent nos vies. Smartphones, objets connectés, tablettes ou PCs sont devenus nos mains et nos pieds, nos oreilles et nos yeux, permettant de faire, de se déplacer, d’entendre et de voire. Les “plateformes numériques”, avec des services issus de l’intelligence artificielle qui pilotent nos comportements, qui influencent nos désirs et satisfont nos besoins, sont en passe de se substituer à notre cerveau et notre cœur.

En se positionnement comme fournisseur d’identité numérique (Facebook connect), en offrant de multiples services (contrôle d’accès, reconnaissance faciale, traçabilité en temps réel, exploitation de des informations de géolocalisation, ciblage publicitaire, stockage de données, croisement d’informations avec celles issues d’autres services y compris dans le monde physique), Facebook, avec un discours d’évangéliste, promeut une idéologie de faiseurs de services indispensables au développement de l’humanité (Internet.org by Facebook) pour le bien de cette dernière. Se positionner comme bienfaiteur est un des objets de la Chan-Zukerberg initiative, (fondation complètement contrôlée par le couple Zuckerberg), ou encore comme employeur prenant soin de ses salariés par la construction de la ville Facebook city (The Zee- town pour la ville – Zuckerberg dans la baie de San Francisco, à l’instar des cités construites autour des mines et des usines qui ont accompagnées la révolution industrielle au 19ème siècle). Cela fait partie de la stratégie de développement de cet acteur hégémonique du Net.

Si célébrer le succès de l’entreprise Facebook pour son quinzième anniversaire, est facultatif, il opportun de profiter de cet évènement pour débatte du pouvoir de transformation que les réseaux sociaux opèrent dans notre société et du pouvoir des acteurs qui les maîtrisent. Un pouvoir sans réel contre-pouvoir est toujours synonyme pour ceux qui s’y soumettent, de perte d’autonomie, de libre arbitre et de liberté.

Le réseau social est à maints égards un filet qui emprisonne alors que nous rêvions de liberté. C’est un dispositif qui norme, filtre, propose, contrôle, alors que nous aspirions à une possibilité de mise en relation pour le meilleur et sans le pire.

Il est urgent de questionner notre relation au numérique, d’analyser les enjeux économiques et politique de l’exploitation des données, de décrypter les principaux risques du pouvoir donné à des fournisseurs de services du numérique auxquels sont devenus dépendants les individus, les organisations publiques et privées et de proposer des alternatives crédibles à la soumission volontaire.

S’interroger sur nos pratiques numériques, sur la société que nous construisons et sur le devenir de l’humanité, en mettant en perspectives l’évolution technologique dans ses dimensions politique, économique et sociale, contribue à ce que nous pussions devenir des acteurs conscients de nos vies interconnectées et dépendantes de l’informatique, pour que celle-ci ne soit pas in fine, la boite de Pandore du vingt et unième siècle, source de toutes les catastrophes humaines et maux de l’humanité.

Mobilité 5 G, reprendre le contrôle

Un peu de concurrence sur le marché des équipements et des infrastructures de télécommunication ne saurait nuire. En théorie tout au moins avec une certaine diversité des équipementiers, la concurrence devrait éviter les risques liés aux situations de monopole et la dépendance envers un fournisseur unique, qu’il soit d’origine nord-américaine ou chinoise.

Une fois mis en œuvre, les équipements constitutifs d’un réseau de transmission restent en général connectés à leur fournisseur, pour faciliter notamment leur gestion opérationnelle et leur mise à jour régulière. Ce lien légitime est susceptible d’être doublé par des dispositifs qui le sont moins, et notamment des systèmes d’écoute parfois intégrés par les constructeurs dès la conception de leurs appareils. Quand de telles portes dérobées (backdoors) existent, l’accès aux données qui les traversent et la fuite non désirée par le propriétaire du système est toujours possible (by design).

Gestion opérationnelle

Dès lors, pour une entité (ou un pays) qui possède une infrastructure de télécommunication reposant sur des équipements étrangers dont la fabrication n’est pas maitrisée, il est nécessaire d’être au moins en capacité de maitriser tous les flux de gestion des systèmes et d’être en mesure de décider quelles données doivent être autorisées à transiter au travers des équipements (vers et en provenance de quels équipements). Cela est du ressort des entités en charge de l’administration des systèmes et de la gestion de réseaux.

Cryptographie

Puisqu’il n’y a pas de maitrise absolue de la neutralité des équipements constitutifs d’un réseau de transmission, il est tout aussi impératif de maitriser le chiffrement des données qui y transitent. Pour le propriétaire de l’infrastructure de télécommunication, il est fondamental de maitriser le chiffrement « de bout en bout » par la mise en œuvre de mécanismes de cryptographie offrant des fonctions de confidentialité, de contrôle d’intégrité et d’authentification. Pour renforcer la sécurité des données, il est possible de chiffrer un échange de données à plusieurs niveaux de l’architecture de communication, via plusieurs et différents protocoles cryptographiques.

Ce type d’approche permet de reprendre le contrôle des échanges de données réalisés au travers d’une infrastructure dont le niveau de confiance est faible. Dans un tel contexte, il redevient possible de s’intéresser aux équipements fournis par des entreprises comme le désormais très controversé équipementier chinois Huawei. En effet, s’ils sont plus performants et moins onéreux que leurs concurrents américains, alors toutes choses étant égales par ailleurs, pourquoi ne pas les utiliser? Avec les économies réalisées dans l’achat des équipements, il est possible d’investir dans le chiffrement des données pour reprendre le contrôle au niveau logique puisqu’il n’est pas garanti au niveau physique, c’est-à-dire matériel, par les équipements du fournisseur.

Enjeux d’une bataille entre les USA et la Chine

L’enjeu majeur de la bataille US / Chine (Huawey) est celui de la maitrise de l’infrastructure et de la surveillance de l’Internet des objets (IoT & Internet of every things) – de la surveillance des flux, des personnes, des organisations privées et publiques, de l’économie toute entière.

Edward Snowden révélait en 2013, la surveillance de masse réalisée à l’échelle mondiale par les Etats-Unis d’Amérique, du fait de leur maitrise de l’Internet. Désormais, ils doivent composer avec un nouvel acteur mondial capable de les concurrencer sur le marché de la surveillance et de l’espionnage.

Dans un monde hyperconnecté et dans un contexte de dépendance numérique, les enjeux des équipementiers des infrastructures de la téléphonie mobile de cinquième génération (5 G) dépassent largement les questions technologiques. Ils sont d’ordre politique, géostratégique, géopolitique et au final souvent économique. C’est une question que seules quelques super-puissances peuvent se poser et sur laquelle elles s’affrontent dans le but d’asseoir toujours plus leur suprématie.

 

L’intelligence artificielle s’invite au théâtre

“Le robot qui m’aimait” est une pièce de théâtre sur l’intelligence artificielle imaginée par Leila Delarive, Dr en Droit, avocate et présidente de The Empowerment Foundation.

Il s’agit d’une création originale réalisée afin de faire dialoguer, via la mise en scène d’un procès fictif d’une intelligence artificielle, de vrais experts sur les questions des rôles et responsabilités de chacun.

Pour en savoir plus et investiguer les enjeux de l’intelligence artificielle rendez-vous Aux Forces motrices de Genève le 17 janvier 2019.

Vous retrouverez sur scène (par ordre alphabétique): Jérôme Berthier, Jacques Besson, Marc Bonnant, Magali  Bonvin,Nicolas Capt, Katia  Elkaïm, , Solange Ghernaouti et Jérôme Kehrli.

L’intelligence artificielle peut-elle ré-enchanter l’esprit de fraternité ?

L’IA au regard de la Déclaration universelle des droits de l’homme (et de la femme)

« Tous les êtres humains naissent libres et égaux en dignité et en droits. Ils sont doués de raison et de conscience et doivent agir les uns envers les autres dans un esprit de fraternité » nous rappelle l’Article premier de la Déclaration universelle des droits de l’homme de 1948. A cet égard, l’intelligence artificielle soulève des enjeux liés à la finalité de son développement, à la concentration des acteurs et à la captation de la valeur ajoutée. Lorsque “L’esprit de fraternité” fait défaut dans la conception, la mise en œuvre et la gestion de l’IA, il est difficile d’assurer qu’il n’y a pas de mise en danger de la liberté, de la vie humaine et de la sûreté des personnes, de la liberté d’opinion et d’expression. Que cela soit via des usages abusifs, détournés ou criminels des technologies ou du fait des possibilités de surveillance et de contrôle inhérentes au numérique, l’atteinte aux Articles 3, 12, 19 et 20 de la Déclaration universelle des droits de l’homme est possible. De même, il est difficile de garantir que des individus connectés en permanence (et qui alimentent en données de manière non rémunérée les fournisseurs de services) ne sont pas tenus en esclavage et en servitude (Art.4). La transformation des métiers est plus rapide que celle de la création de nouveaux et de l’évolution des compétences. Le remplacement massif de personnes par des machines, mais aussi le fait que des individus soient au service des robots et commandés par des IA, remet en question le droit du travail, les conditions équitables et satisfaisantes de travail (Art. 23, 24). Par ailleurs, les robots conversationnels favorisent la désinformation, la fabrication d’information, le ciblage des personnes et la manipulation de l’opinion. Cela peut perturber le fonctionnement “d’élections honnêtes” (Art. 21). De plus, la faiblesse des mécanismes de régulation internationale ne permet pas que “les droits et libertés énoncés dans la Déclaration puissent y trouver plein effet” (Art.28).

Un mode de possibles

Force est de constater que le déficit de vision prospective et d’actions collectives allant dans le sens de création de mécanismes internationaux de régulation et de contrôle, laisse aux acteurs les plus forts, le soin d’imposer des évolutions technologiques pas forcément compatibles avec la Déclaration universelle des droits de l’homme.

Tant que les évolutions technologiques servent une logique de rationalisation économique, de compétitivité et de performance pouvant aller jusqu’à la soumission et l’anéantissement de l’autre, que la recherche de profit est au centre de l’informatisation de la société et de l’automatisation des processus, le respect des droits humains restera optionnel. Le développement sauvage de l’intelligence artificielle ouvre la porte à toutes sortes de dérives préjudiciable au bien commun et aux droits humains.

Le cas de la Chine, avec l’évolution des comportements et des pratiques de contrôle des citoyens et des organisations, qui met en œuvre et à grande échelle l’IA (crédit social) pour surveiller, punir et contraindre, est exemplaire. Quelle sera l’évolution dans d’autres pays ? Qui décide de la liberté des Etats dans ce domaine ? Quelles sont les limites du libéralisme ? Peut-on contrôler la recherche et l’innovation ? Qui discute de ces questions et y apporte des réponses convaincantes du point de vue de la société civile ?

Le doute philosophique peut-il s’opposer au techno-centrisme et au laisser-faire?

Comment opposer le doute philosophique à la certitude des fabricants d’utopies technologiques, de celles des marchands et à la volonté des partisans de la surveillance totale et du contrôle? Le doute philosophique, n’est pas un doute ordinaire. Il est, selon Aristote “le commencement de la sagesse”, il permet de s’opposer à l’erreur et de mettre en cause l’ordre établi…Doutons donc aujourd’hui que les choix opérés en matière d’intelligence artificielle et que le culte que certains lui vouent, puissent offrir le meilleur à l’humanité. L’utopie d’une intelligence artificielle parfaite, qui résoudrait tous les problèmes, relève plus du phantasme que de la réalité des faits.

Agissons pour que le monde soit enchanté par l’esprit de fraternité et de solidarité.

Agissions pour que l’intelligence artificielle ne soit pas l’expression d’une hypocrisie pseudo-humaniste, ni le bras armé du techno-libéralisme, ni celui de systèmes autoritaires ou totalitaires.

Agissions pour ne pas avoir à dire avec Simone Veilles choses jouent le rôle des hommes, les hommes jouent le rôle des machines ; c’est la racine du mal”.

Agissions pour que l’action humaine et l’intelligence artificielle ré-enchante le monde afin que demain soit différent mais en mieux.

Des espions chinois dans nos machines ?

Le contexte

Au-delà de la fiabilité et de la robustesse des composants électroniques, se pose désormais la question de savoir s’ils sont fabriqués et commercialisés pour espionner leurs utilisateurs.

Cela concerne en particulier les fournisseurs chinois de technologies comme Huawei, actif en téléphonie et télécoms, mais aussi toute la chaîne d’approvisionnement des éléments électroniques fabriqués en Chine et qui se retrouvent dans des serveurs et ordinateurs du monde entier. Ce fabricant et d’autres sont suspectés d’avoir introduit des fonctions d’espionnage dans leurs équipements. Les investigations sont encore en cours pour tenter de déterminer la liste complète des victimes, mais dans ce domaine c’est très délicat, tant les impacts que pourraient avoir le fait de rendre public de telles situations, dont certaines durent depuis plusieurs années. Bloomberg Businessweek dans son article « The Big Hack: How China Used a Tiny Chip to Infiltrate U.S. Companies » du 4 octobre 2018 en cite quelques-unes, dont des infrastructures sensibles américaines, ainsi que des fournisseurs de matériels, logiciels et services de l’Internet et du cloud computing.

L’intégration dans des équipements informatiques, lors de leur fabrication ou de leur installation, de facilités d’espionnage et de prise de contrôle à distance, existe depuis longtemps. Cela fut initialement le fait d’entreprises et d’agences de renseignement nord-américaines. Ces dernières les ont largement exploitées, comme en ont témoigné les révélations d’Edward Snowden en 2013.

Depuis nous semblons découvrir que c’est non seulement les américains

mais aussi les chinois qui possèdent ces capacités. Peut-on en être réellement surpris ?

 

Pour des raisons de coûts, la fabrication de composants électroniques est largement externalisée en Chine. Différents sous-traitants peuvent être impliqués et ils ont généralement un lien très étroit avec le gouvernement chinois. Ainsi par exemple, le créateur de Huawei Techologies est un ancien colonel de l’Armée populaire de libération.

Même si les composants électroniques sont assemblés en dehors de Chine, le produit fini commercialisé reste vulnérable à l’espionnage d’origine chinoise. C’est ce que témoigne l’affaire Supermicro (entreprise leader mondial en solutions informatiques, de stockage et de mise en réseau), révélatrice de l’interférence chinoise et de sa capacité d’action en terme d’espionnage, de détournement de données partout dans le monde. Ces mêmes capacités pourraient, dans certaines circonstances, se transformer en capacités de sabotage.

 

Sécurité et souveraineté en danger

Les produits dont l’électronique est maitrisée par ceux qui les fabriquent du fait de l’existence de porte dérobée matérielle (back doors) pourraient aussi intégrer des logiciels conçus avec des portes dérobées logicielle, autorisant diverses possibilités de détournement des données et d’usages abusifs, dont l’origine serait à associer au concepteur et développeur de ces logiciels. Cela peut concerner également les logiciels de chiffrement, utilisés pour en principe, sécuriser les données et les transactions.

L’implantation de portes dérobées à l’insu des clients et des utilisateurs, par des constructeurs ou des fournisseurs, étrangers ou non, généralement à la demande d’un Etat, est souvent justifiée pour les raisons suivantes :

  • Sécurité nationale, sûreté publique, lutte contre le terrorisme et la criminalité ;
  • Avantage économique (avantage compétitif, guerre économique, intelligence économique) ;
  • Logique de domination, de puissance, de pouvoir et de contrôle (avantages politique, diplomatique, militaire et économique, cyberguerre).

 

Recommandations pour la Suisse

A l’échelle des pays qui ne maitrisent ni la fabrication, ni le développement des infrastructures matérielles et logicielles, comme c’est le cas de la Suisse, deux grandes pistes de solutions sont possibles pour gagner en souveraineté et en sécurité.

 

Solution de type « Certification »

Etre en mesure de vérifier, d’auditer, de tester, de certifier les produits afin de pouvoir les utiliser en toute connaissance de causes, ou de renoncer à leur usage. C’est d’ailleurs ce préconisent les Etats Unis : l’interdiction d’utiliser entre autres des équipements Huawei (infrastructure de réseau et téléphones) ou des smartphones chinois de la marque ZTE. Pour des raisons de non-maitrise par les autorités, l’usage des téléphones portables de la marque Blackberry fut interdit notamment aux Emirats arabes unis, en 2010. L’Inde avait recommandé leur non usage et la France, par soucis de sécurité et pour échapper à l’espionnage, l’interdit dans les ministères, les services du Premier Ministre et ceux de la Présidence de la République.

La certification déplace le problème de la confiance sur l’entité qui certifie et labellise, parfois cela ne résout pas le problème car cela nécessite une certaine indépendance et autonomie de l’autorité de certification, … et sa reconnaissance nationale et internationale. La neutralité de la Suisse est dans ce contexte, un atout majeur.

 

Devenir un acteur champion de la certification en développant un écosystème autour

d’un Label de garantie « sans backdoors constructeur» pourrait être une opportunité et un atout stratégique pour la Suisse.

 

Solution de type « Chiffrement »

Une alternative qui tient compte de la vulnérabilité by design des matériels et logiciels est de concevoir, développer et d’utiliser des solutions de chiffrement sans back doors, au-dessus (c’est-à-dire en plus) des éléments matériels et logiciels dans lesquels la confiance n’a pas pu être démontrée. Généralement les forces de police, ou les services de renseignement n’apprécient guère ce genre d’approches car elles les empêchent d’accéder (facilement) aux données, et que les utilisateurs disposent alors de techniques de chiffrement qu’eux-mêmes ne maitrisent pas…. Pour lutter contre ce problème, il faut alors trouver une solution de mise en œuvre de techniques de chiffrement fiables et de confiance qui permettent de déposer les clés de chiffrement auprès d’une certaine autorité de confiance (un coffre-fort électronique au niveau national) laquelle doit pouvoir livrer ces clés à des investigateurs, sur demande justifiée et accréditée, par les forces de justice dans le cas d’une enquête par exemple.

Cela traduit la dualité du compromis à faire entre la confiance, l’assurance de confiance offerte aux utilisateurs versus la facilité à intercepter des données et à contrôler les systèmes et les utilisateurs à des fins de sécurité.

 

Perspectives

Des attaques contre les processeurs continuent de se développer depuis la publication de la découverte des failles de sécurité Spectre et Meltdown concernant les processeurs AMD, ARM et Intel au début de l’année 2018.

Difficile de continuer à ignorer la fragilité du matériel informatique à partir desquels les services du numérique sont développés et desquels nous sommes devenus aussi dépendants que vulnérables.

Le problème de la confiance, de la qualité, de la sureté de fonctionnement et de la sécurité des produits et service du numérique – y compris des intelligences artificielles – est à résoudre pour tirer parti de leurs opportunités technologiques. A défaut, et sans analyse des risques et de leur maitrise à tous les niveaux de la société, y compris pour ce qui concerne les infrastructures vitales du pays, la transition numérique, qui engendre de nouveaux risques et de nouvelles menaces, pourrait marquer la fin d’une époque.

L’adoption des technologies issues de l’informatique et des sciences cognitives nécessite un accompagnement politique, économique et juridique. Les ruptures technologiques sont des ruptures stratégiques auxquelles il faut répondre de manière stratégique c’est-à-dire politique … y compris en matière de cybersécurité. Cela est possible à condition d’être en mesure d’accorder une vraie place à la prospective réalisée de manière holistique, à une époque où la réflexion du top-management a toujours du retard …

 

La fuite en avant technologique ne peut pas être une réponse viable sans la redéfinition de nouvelles priorités dans une politique de sécurité à l’ère numérique digne de ce nom.

 

Pratiques numériques, un risque pour les droits humains

Cette année le Forum de la gouvernance de l’Internet (IGF 2018, 12-14 novembre 2018) se tient à Paris dans les locaux de l’UNESCO, en parallèle du Forum de Paris sur la Paix qui fait suite à la commémoration du centenaire de l’armistice de la première guerre mondiale. L’Université de Genève consacre cette même période à la semaine des droits humains avec notamment un colloque académique sur « Les droits humains et le cyberespace » dans lequel j’interviens.

 

Ce que nous apprend George Orwell

En Europe nous nous habituons, à consommer du numérique, à nous exposer sur les réseaux sociaux sans trop questionner l’impact à long terme que cela peut avoir sur la préservation de nos droits fondamentaux.

Nous souscrivons à l’illusion de sécurité que peut procurer un système de surveillance présenté comme un système de protection. Certains pensent que la transparence des êtres et de leurs activités est synonyme de sécurité alors qu’en réalité cela contribue à leur aliénation dans une posture imposée par le dispositif de surveillance et à leur soumission au système. C’est ce que démontre George Orwell dans son roman « 1984 » dont la première édition a été publiée en1949 au Royaume Uni , dans lequel il nous est amené à penser que la dignité et l’intimité humaines se sont progressivement annihilées, que les liens sociaux se sont délités, que les individus se sont isolés les uns des autres du fait du contrôle invisible opéré par le « télécran », véritable système de surveillance panoptique.

L’existence de procédés de surveillance asymétriques et potentiellement liberticides inhérente à la manière dont le cyberespace et le mode de fonctionnement des services numériques ont a été conçu, autorise à penser que le slogan de G. Orwell « Big Brother is watching you » ou Big Brother est un dictateur invisible exerçant un contrôle totalitaire via un système de surveillance asymétrique, est incarné dans sa globalité par le réseau Internet.

De manière analogue ou les citoyens d’un grand nombre de villes et de pays se sont habitués à se déplacer sous l’œil des caméras de vidéosurveillance, nous intégrons sans la questionner, la surveillance qu’autorisent nos pratiques numériques. Pratiques imposées par l’informatisation massive de la société où toutes les activités traditionnelles se trouvent désormais médiées par les technologies de l’information.

La majorité des personnes ne peut plus se passer des technologies de l’information dont l’adoption a été favorisée en grande partie par des pratiques permanentes de divertissement et de consommation. Cette auto-aliénation et cet auto-assujettissement sont renforcés par le lien affectif développé par l’Internaute au regard des services consommés et de ses objets connectés. Ce qui contribue à l’empêcher de développer un regard critique sur la réalité de la surveillance dont il fait l’objet et donc de pouvoir la contester.

Un seuil a déjà été franchi il y a plus de quinze ans avec le hold-up de la vie privée et des données personnelles par les acteurs du numérique et de l’économie du numérique. En effet, la profitabilité de cette dernière s’est développée sur la base que les données des personnes sont considérées comme étant des valeurs commercialisables fournies gratuitement par les utilisateurs. L’intimité des personnes dans leur domicile est également mise à mal par l’intrusion des systèmes d’assistance vocales comme ceux proposés par Google, Amazon ou Apple par exemple. Les télévisions ou encore les jouets connectés sont également en mesure d’espionner leurs propriétaires, comme d’ailleurs le sont les montres et bijoux connectées. Ces derniers, au plus près du corps des individus sont capables d’enregistrer leur moindre mouvement ou leur fonctionnement biologique. Désormais, aucun lieu habituellement privé comme une voiture échappe à l’informatisation, ce qui a pour corolaire une surveillance automatisée.

Dès lors, dans ces conditions, comment l’Article 12 de la Déclaration universelle des droits de l’homme « Nul ne sera l’objet d’immixtions arbitraires dans sa vie privée, sa famille, son domicile ou sa correspondance, ni d’atteintes à son honneur et à sa réputation. Toute personne a droit à la protection de la loi contre de telles immixtions ou de telles atteintes », peut–il être respecté?

L’empreinte numérique des utilisateurs est récoltée, stockée, croisée avec celles issues d’autres sources (téléphone, caméra de vidéosurveillance, navigation web, paiement…) et traitée afin de construire des profils de consommateurs (comportements, déplacements, goûts, sentiments, transactions commerciales, consommations de média, etc.). Classer catégoriser des personnes, des groupes de personnes y associer une note, un rang, y joindre des avantages (carottes – réduction des prix, …) comme des restrictions (coups de bâton – accès refuser à des services et prestations, …) permet non seulement de mesurer les individus mais aussi de les dresser. De fait, l’expérience client de certains services ou plateformes numériques, la dépendance à ces services contribuent à rendre les utilisateurs « dociles et utiles », de les assujettir et de les discipliner.

 

Ce que nous apprend Michel Foucault

« Surveiller et Punir » est le titre de l’ouvrage de Michel Foucault dont le sous-titre est « Naissance de la prison » paru chez Gallimard en 1975. Impossible de ne pas penser que les systèmes de vidéosurveillance de plus en plus intrusifs puisque de plus en plus intelligents et omniprésents, sont les nouvelles forteresses invisibles du 21ème siècle qui emprisonnent les individus pour les « redresser », les tenir en laisse électronique, les contraindre à opter pour des comportements pas uniquement socialement acceptables, mais normés selon un système politique déterminé. Se déplacer sous l’œil permanent des caméras, c’est accepter la contrainte intériorisée d’un comportement prédéfini, c’est vivre enfermé dans « une entreprise d’orthopédie sociale » pour reprendre les termes de Foucault. Lorsque que les personnes se savent observées, leurs comportements changent. L’Europe n’est pas à l’abri de l’adoption d’un système de surveillance totale, habilement justifié avec une population prête à l’accepter où imposé par une logique de marché servant une politique de sécurité particulière supportée par des partenariats public-privés spécifiques.

 

La transformation numérique des moyens de surveillance

La transition numérique de la société concerne également la transformation des moyens de surveillance. Ceux-ci sont implicitement intégrés, non pas sous ce nom et comme tels, dans tous les services personnalisés développés à partir du phénomène de big data et de l’application de techniques d’intelligence artificielle. En effet, la collecte massive de données et les algorithmes permettent de déduire les caractéristiques physiques, psychologiques, socio-comportementales, sexuelles des personnes, etc., d’éventuellement les prédire et donc aussi de les influencer.

Le numérique favorise une double surveillance des individus celle physique et celle de leur réputation et habitudes numériques avec la possibilité de les croiser. Cela augmente la performance du dispositif de surveillance, son automatisation, son effet de dissuasion et d’autocensure ainsi que la pression sociale tout en restreignant considérablement la liberté individuelle et la prise de risque de ne pas être en conformité avec une moyenne décidée artificiellement par des algorithmes plus ou moins bien conçus et imposés par les gouvernants.

Les relations de pouvoirs entre tous les acteurs de la société et cela à l’échelle mondiale, s’appuient désormais par la maitrise des technologies de l’information et des données. Il est à craindre que certains en Europe et ailleurs dans le monde, défende leurs intérêts en favorisant une surveillance informatisée. Il suffit d’un moment opportun (attentats terroristes, problèmes économiques, immigration, …), de discours politiques convaincants, de quelques lois liberticides, d’une communication efficace pour que la population se soumette à un tel système, voire le sollicite.

Le marché existe, il est supporté par les fabricants et fournisseurs de solutions qui ne demandent qu’à vendre … L’économie du numérique est en pleine expansion, comme celle de la sécurité d’ailleurs.

De plus, la population s’habitue sans résistance, comme elle s’est habituée à l’usage à priori indolore des cartes de crédits, des paiements ou déclarations en ligne mais aussi à la publicité personnalisée. Or, la traçabilité des paiements électroniques autorise surveillance et un contrôle social. Par ailleurs, beaucoup d’incitations existent pour ne plus payer en liquide. La publicité personnalisée est une forme de surveillance à vocation initialement commerciale mais qui peut évoluer vers d’autres finalités. Ce type de détournement a été illustré par l’affaire Facebook & Cambridge Analytica.

 

Pour de nouveaux droits humains

Les droits fondamentaux ne sont pas négociables, ils doivent être protégés, préservés, défendus, exigés dans le monde physique comme dans le cyberespace. Au regard des pratiques numériques existantes et à venir il est urgent d’innover pour que les droits humains traditionnels soient respectés dans le cyberespace. Il est tout aussi urgent de reconnaitre de nouveaux droits humains liés spécifiquement aux technologies du numérique comme celui du droit à la déconnexion ou encore du droit à savoir si un humain interagit avec une intelligence artificielle.

De quelles villes numériques voulons-nous ? … et qui le décide pour nous ?

Urbanisation et mimétisme numérique

La dématérialisation, la généralisation de l’usage d’Internet, de l’informatique, des plateformes numériques, ont fait basculer la société dans une ère de changements. Changement des habitudes de faire, de communiquer, de consommer, de se déplacer, de se distraire, de travailler, de se former, ces changements marquent l’ensemble de nos relations, qu’elles soient réelles ou dématérialisées. La ville, lieu de concentration de personnes physiques et morales, et par conséquent des sources et usagers des données est concernée par l’urbanisation numérique. La ville numérique est un nouveau monde développé à partir des infrastructures informatiques et télécoms, des capteurs, des objets, des systèmes connectés. Les données irriguent ses artères virtuelles.

Pour ses citoyens, la société de tout numérique passe désormais par « l’expérience client ». Imposée par les fournisseurs de services et les plateformes numériques, elle conditionne les interactions entre les personnes et les institutions. L’économie des services numériques se développe dans une logique de mimétisme qui décline et duplique les modèles d’affaire basés sur l‘exploitation des données dont les acteurs hégémoniques du Net (GAFAM, NATU, BATX)[1] sont les maîtres.

Ce clonage des modèles déployés empêche de penser des modèles alternatifs qui pourraient mieux tenir compte des besoins de protection des données personnelles, de la préservation de l’intimité numérique, des droits fondamentaux ou encore des besoins des populations particulières.

 

Clonage et uniformisation

La transition numérique revient à « Chercher ses clés sous le lampadaire »[2] et à normer, homogénéiser, uniformiser les modes de vie, les manières d’être et de se comporter dans un monde globalisé.

Sous couvert de divertissement, d’aide à la prise de décision, ou de promesses illusoires de mieux être, les e-trucs et les smart-machins conditionnent leurs utilisateurs, forcés de consentir à leurs conditions générales, à se soumettre au pouvoir des algorithmes et par conséquent à celui de leurs fabricants et maîtres.

Comme le rappellent Natacha Polony et le comité Orwell dans l’ouvrage «Bienvenue dans le pire des mondes , le triomphe du soft totalitarisme» l’industrie du divertissement présente « une efficacité bien plus grande que n’importe quel système de coercition » [3] .

Le pouvoir de séduction et d’attraction des interfaces électroniques, associé à la force des discours idéologiques portés par les acteurs hégémoniques du Net s’appuyant sur une logique de marché néolibérale et sur le capitalisme numérique, présentent le progrès technologique comme inéluctable et indiscutable. Le slogan TINA « There is no alternative » (il n’y a pas d’autre alternative) fait écho au fait de considérer à tort, que l’évolution technologique s’inscrit dans la thérorie de l’évolution des espèces et de la sélection naturelle soutenue par C. Darwin au XIXe siècle[4].

Dans sa publication de 1943 le psychologue américain Abraham Maslow “A Theory of Human Motivation”[5] structurait en cinq niveaux les besoins fondamentaux des individus et les représentaient selon une pyramide. Désormais, les individus comme les institutions publiques et privées sont devenus dépendants d’Internet et des systèmes d’information pour la satisfaction de leurs besoins. A chaque instant de leur vie les personnes, parfois dès leur plus jeune âge, dépendent des infrastructures numériques et des fournisseurs de services pour vivre leurs vies professionnelle et personnelle. Besoins réels ou induits par ces mêmes fournisseurs qui proposent de les combler.

 

L’individu constitue une source de minerai informationnel

Toutes les activités informatiques traitent des données et laissent des traces numériques. Celles-ci sont fournies directement par les utilisateurs (contenu d’un message, d’une requête, …) et récupérées indirectement à partir de l’usage des services numériques (il s’agit de métadonnées comme celles relatives au type de système utilisé, à l’heure de connexion, à la localisation géographique de l’utilisateur, …).

Toutes ces données sont complétées par celles provenant de leurs traitements informatiques. Ce sont des données fabriquées par des algorithmes, qui permettent généralement, un profilage des personnes selon des analyses et critères propres aux fournisseurs de services. Cela peut notamment inclure des analyses relatives aux comportements, goûts, sentiments, achats, etc., via des inférences mathématiques et des croisements de données.

Le volume des données « cachées », qui ne sont pas livrées consciemment par un individu, représenteraient environ 80 % de la masse de données le concernant.

 

Un seul horizon : celui de l’exploitation et du commerce de la donnée

Les données créées à partir des données de l’utilisateur et de ses métadonnées sont à la base de la profitabilité de la majorité des intermédiaires techniques et des fournisseurs de prestations.

Toutes les entreprises, dans tous les secteurs d’activité en relation directe ou indirecte avec les individus, dès lors qu’elles traitent des données personnelles, sont concernées. Elles peuvent devenir, par opportunité ou par nécessité, des acteurs du commerce de la donnée.

Par exemple, en France, le géant de la distribution Casino, avec sa plateforme RelevanC dont le slogan de la page d’accueil est « Bienvennue dans l’ère de la pertinence » nous informe que « relevanC collecte et analyse chaque jour ; Des millions de transactions en magasin ; Des millions de transactions en ligne ; Des millions d’usages digitaux et mobiles ».

C’est plus de 50 millions de profils de consommateurs qui sont concernés et dont l’observation est rendue possible par le croisement des données des 10 000 magasins en France (hybermarchés Géant, Casino de proximité, Franprix, Monoprix et Leader Price) et des comportements des internautes via le site Cdiscount. La plateforme a pour ambition de mutualiser les données des consommateurs d’autres marques comme Courir ou Gosport par exemple.

Le commerce de la donnée est en pleine expansion, la protection des données personnelles tente de mettre un frein à des possibilités commerciales sans limites. Comme la profitabilité des « vendeurs de données » est corrélée à la qualité des profils constitués (pertinence, véracité, précision, qualité des données récoltées), il leur est fondamental de pouvoir croiser les données à partir de multiples sources et applications et de maintenir l’internaute connecté en permanence ou sous surveillance physique. Désormais il est possible dans des lieux publics (aéroports, centres commerciaux, …) de relier l’identification d’un smartphone (possible grâce à l’usage du WiFi), à une personne se déplaçant dans une zone de vidéo surveillance.

Google développe le moteur de recherche Dragonfly, pour la téléphonie mobile en Chine, qui permet de lier les requêtes de navigation d’une personne à son numéro de téléphone afin de renforcer la surveillance, le contrôle et la censure par les autorités chinoises. Ce pourait-il que ce modèle puisse être adapté et adopté par le reste du monde ?

Associé aux possibilités de l’intelligence artificielle, de l’informatique prédictive et avec l’apport des sciences cognitives et comportementales, il n’est pas incongru de penser que les entités qui maitrisent les données et leurs traitements sont ou seront bientôt en mesure de prévoir, de manipuler et d’orienter les déplacements, les opinions, les décisions, les actions des personnes qui sont connectées en permanence à leurs services.

Poussé à l’extrême avec ce type de systèmes, il pourrait ne plus être nécessaire de voter puisque nos moindres désirs, déplacements, actions, sentiments, seront sous contrôle et orientés. Initiatives, référendum, revendications, appartiendront au passé, il ne sera plus possible d’agir en dehors de la matrice… une transparence totale et totalitaire sans possibilité de surveiller le surveillant, de contrôler les entités qui contrôlent est en train de se mettre en place sous couvert de services personnalisés et d’optimisation de l’usage des ressources (transport, énergie, santé, …).

 

Pour le meilleur de la transformation numérique et sans le pire

Bien que de véritables opportunités pour le développement économique et personnel, existent autour de l’usage du numérique, il n’empêche que la dépendance à des infrastructures et à des fournisseurs de services informatiques, par ailleurs très énergivores, autorise la surveillance de masse et le contrôle social. De plus, les possibilités d’usages abusifs, détournés ou criminels des données, services et infrastructures, sont infinies. L’envergure des cybernuisances est large, leurs impacts sur la société bien réels.

Même si le numérique permet d’offrir de nouveaux services, le progrès technologique est rarement synonyme de progrès social pour tous.

« Voir sans être vu » est un projet politique, économique et techno-idéologique s’inscrivant dans une logique de pouvoir et de puissance sans limite. L’exemple de la Chine nous montre que cela est possible comme avec le système de crédit social pour surveiller la population.

Ici déjà, les caméras de vidéosurveillance omniprésentes dans les leux publics, procurent une illusion de sécurité et une surveillance bien réelle.

Par ailleurs, Apple vient d’annoncer un système d’évaluation et de notation relatif au comportement des usages de iPhone, iPad, Apple Watch et Apple TV, dont la finalité est de contribuer à prévenir des fraudes relatives au e-commerce.

Souhaite-t-on un modèle de société technologique de surveillance totale à la chinoise ?

 

Pour une ville intelligente de confiance

Comment sont pris en compte les besoins de protection des données personnelles dans des applications comme celles :

  • de suivi des déplacements pour l’optimisation du trafic ;
  • d’analyse des comportements pour gérer la consommation électrique (comme avec le compteur Linky en France qui fait l’objet d’un rejet de la population) ;
  • de pilotage des objets connectés (comme les vélos en libre-service) ?

A ce jour, peu de services sont conçus en privilégiant le respect de la sphère privée (« privacy by design »), c’est-à-dire en assurant une sécurité renforcée des données de l’utilisateur, en minimisant la collecte de données, et en vérifiant que ces dernières ne sont pas détournées.

Existe-t-il une obligation pour prendre en compte ces préoccupations et pour vérifier que les produits commercialisés satisfont le respect ces droits humains fondamentaux ?

 

Injonction d’innovation

L’injonction d’innovation technologique s’inscrit dans une logique d’optimisation et de rationalisation économiques basées sur l’exploitation des données captées gratuitement (mais dont le coût est porté par l’utilisateur via notamment l’achat de son objet connecté (téléphone, montre, ordinateur, …) et son abonnement télécom et par le temps passé à produire des données. Dans les lieux publics, le coût du WiFi « gratuit » est à la charge de la société c’est-à-dire du service public tandis que les bénéfices de la connectivité sont généralement pour le secteur privé qui en maitrise les usages.

L’économie de la donnée a fait place à l’économie de l’attention avec une informatique toujours plus « affective » qui permet de pister en permanence les goûts, les sentiments, les envies, les déplacements et les actions. Le maillage et les croisements des données que permettent une ville intelligente sont sans limite.

Est-ce qu’un instrument juridique comme Le Règlement Général sur la Protection des Données (RGPD) qui est le résultat de la prise de conscience par le régulateur européen de la nécessité d’agir sera suffisant pour développer une ville intelligente de confiance, et où il fait bon vivre ensemble ?

 

Quel projet de société pour la ville numérique ?

Une ville numérique ne peut se résumer à la somme des initiatives qui permettent de contrôler et d’optimiser des flux et des ressources. Ce ne sont pas ces types d’applications ou celles ayant pour finalité la sécurité comme celle par exemple de police prédictive, qui peuvent engendrer du progrès social et un meilleur bien être pour tous.

Même les vaches peuvent être connectées, pour autant sont –elles plus heureuses sachant que la technologie est pensée pour améliorer la vie des éleveurs, pour qu’elles produisent plus de lait ou encore éventuellement un lait de meilleure qualité ? Qu’en pensent les vaches ? Si le numérique a pour finalité de mieux les traire et de les exploiter, est-ce vraiment à leur avantage ?

Un modèle de ville basée sur une économie numérique dans laquelle le citoyen est un client, tout en étant de fait, l’employé non rémunéré de plateformes dont ses activités dépendent, est-il pertinent ?

Est-il raisonnable de penser qu’une ville, un marché, une place de jeu pour enfants puissent être conçues comme un quartier d’affaires et gérées comme une entreprise ?

L’informatisation des entreprises consiste pour l’essentiel à automatiser des processus. Beaucoup d’entreprises investissent dans le numérique pour se passer de leurs employés. Appliquée aux villes intelligentes, cette logique conduira à leur déshumanisation.

Dans une ville optimisée technologiquement, que faire des personnes allergiqueséfractaires, inaptes au numérique ?

Y aura – t- il une place quelque part pour les migrants du numérique, pour ceux qui ont une phobie du mobile ou qui souffrent d’addiction numérique et de surmenage digital (digital intox)?

« L’homme est né libre et partout il est dans les fers » nous rappelait au siècle des Lumières, Jean-Jacques Rousseau dans son « Contrat social ». Peut-être est-il temps de ne pas oublier que dans son ouvrage, le citoyen de Genève invitait les hommes à être vigilants « Tant qu’un peuple est contraint d’obéir et qu’il obéit, il fait bien ; sitôt qu’il peut secouer le joug et qu’il le secoue, il fait encore mieux. »

L’immense potentiel du numérique confirme l’importance à accorder à la transformation numérique de la société et celle à donner à la conception et à la gestion des villes dites intelligentes dès lors que leur population doit être connectée pour y vivre.

Partout dans le monde, des groupes de réflexions s’interrogent sur linformatisation du monde et son devenir au regard des évoutions technologiques. Ainsi par exemple, le Center for Humane Technology propose des axes de réflexions et des alternatives possibles pour reprendre le contrôle de notre destin en partant du principe que le problème fondamental du développement de la société est lié au fait que notre société a été piratée par la technologie « Our society is being hijacked by technology ».

 

En route vers des erreurs exemplaires ?

Dans un monde hyperconnecté et interdépendant, quel est donc le nouveau contrat social qui permettrait d’avoir foi dans un futur de qualité ?

Qu’elles sont les initiatives à prendre et les actions à poser pour que plus tard, des historiens ou anthropologues, à moins que cela soient des archéologues du numérique, ne puissent penser :

  • que notre époque a sous-estimé les risques associés à l’usage extensif du numérique ;
  • qu’elle n’a pas anticipé la perte de souveraineté des personnes et des institutions ;
  • que le politique s’est plus focalisé sur de la gestion quotidienne du court terme au détriment d’une vision stratégique à plus long terme.

Sommes-nous en mesure d’orienter les choix stratégiques et technologiques afin que les générations futures ne nous bannissent pas pour les choix opérés qui seront pour eux des erreurs exemplaires ? Cela en ayant notamment créé de nouveaux modes de dépendances à des technologies et à leurs fournisseurs. Dépendances, qui valorisent le dialogue avec des objets connectés au détriment des interactions entre personnes non médiées par de la technologie.

 

[1]GAFAM pour Google Amazon, Facebook, Apple, Microsoft (USA)

NATU pour Netfix, Airbnb, Telsa, Uber (USA)

BATX pour Baidu, Alibaba, Tencent et Xiaomi (Chine)

[2] Jean-Paul Fitoussi, Le théorème du lampadaire ; Les Liens qui libèrent, 2013.

[3] Natacha Polony & Le comité Orwell, «Bienvenue dans le pire des mondes , le triomphe du soft totalitarisme » ; Editions Plon, 2016 (p.23 Editions J’ai lu, 2018)

[4] C. Darwin ; « L’origine des espèces » 1859.

[5] Maslow, A. H. (1943). A theory of human motivation. Psychological Review, 50(4), 370-396.

Souveraineté numérique et dématérialisation au Congo-Brazzaville

Transformation numérique

 

J’ai commencé à écrire ce billet à Pointe Noire au Congo où je suis intervenue dans le premier Forum numérique organisé autour de la dématérialisation et la gouvernance électronique, par le Guichet Unique des Opérations Transfrontalières (GUOT) (10-12 septembre 2018).

Porté par une organisation en charge des échanges commerciaux par voies maritime, fluviale, aériennes et terrestres, ce forum a traité des enjeux stratégiques de la transformation numérique sur le continent africain et en particulier au Congo Brazzaville. Des présentations, retours d’expériences et discussions relatives au droit et à son application, aux développement des infrastructures et des capacités humaines, à la cybersécurité, à la lutte contre la cybercriminalité, aux aspects techniques, organisationnels, procéduraux et financiers du commerce électronique et de la e-administration ont structurés ces trois journées de rencontre.

Experts et participants de grande qualité provenant des pays africains francophones mais aussi de Belgique et de Suisse ont eu l’occasion d’interagir avec les membres et représentants du gouvernement congolais. Plusieurs ministres ont marqué leur intérêt par leur présence prolongée et leur participation aux débats. Ainsi, il fut possible d’entendre le point de vue des des ministres de la Communication et des médias, porte-parole du Gouvernement, de la Justice, des droits humains et de la promotion des peuples autochtones, de la Santé et de la population et du ministre des Postes, des télécommunications et de l’économie numérique, lors d’une table ronde ministérielle animée par le directeur des informations à la télévision nationale congolaise.

Six piliers fondamentaux de la souveraineté numérique

 

Les thèmes abordés tout au long de ce Forum de la gouvernance numérique concernent également les problématiques liées à la souveraineté numérique, comme exprimé par l’Organisation Internationale de la Francophonie à Genève en décembre 2017, en référence aux piliers fondamentaux de la souveraineté numérique qui ont été définis de la manière suivante:

  • Pilier 1 : innovation et industrie numérique
  • Pilier 2 : sécurité et protection de données (infrastructure, donnée, cyberattaque et cybermenace)
  • Pilier 3 : citoyenneté et éthique numérique (comportement/usage et responsabilité)
  • Pilier 4 : régulation /réglementation
  • Pilier 5 : production et contenus locaux
  • Pilier 6 : inclusion et renforcement de capacités des femmes et des jeunes (femmes, actrices du numérique).

A Pointe Noire, il a été identifié des besoins de trouver des solutions convaincantes pour assurer une transformation numérique du pays, qui tient compte des besoins spécifiques du Congo et des retours d’expériences effectués au niveau régional et international afin d’optimiser la démarche.

Parmi les points importants abordés qui doivent faire l’objet d’attentions particulières et de réalisations concrètes, il a été retenu les suivants :

  • L’économie de la donnée avec la maîtrise du cycle de vie de la donnée (production, collecte, traitement, stockage et exploitation) ;
  • La création de valeurs et le développement économique via le numérique et l’innovation technologique ;
  • La gouvernance pour une souveraineté numérique ;
  • Le financement de l’économie numérique (fiscalité et financements alternatifs, etc.) ;
  • Le développement des infrastructures techniques et des services électroniques adaptés aux besoins de la population notamment pour ce qui concerne les applications administratives (e-administration) ;
  • La construction des capacités humaines (éducation, sensibilisation de la population, formation continue) notamment pour ce qui concerne les jeunes et les femmes ;
  • Le respect des droits humains, de la vie privée, de l’intimité numérique, libertés et autodétermination informationnelle ;
  • L’identité numérique ;
  • La cybersécurité ;
  • La lutte contre la cybercriminalité ;
  • Le droit, la réglementation et la régulation du numérique ;
  • La problématique de mise en place des structures organisationnelles adaptées aux besoins ;
  • L’écosystème numérique global qui intègre l’infrastructure énergétique nécessaire à son bon fonctionnement.

 

Partout dans le monde, s’ouvrent des débats qui questionnent la notion de souveraineté des pays et qui interrogent sur les stratégies, plans d’actions, ressources et compétences nécessaires à la réussite des changements de société consécutifs à la dématérialisation et de l’usage des technologies du numérique.

 

“Le bâton que tu possèdes détermine le serpent que tu peux tuer »

 

Ce dicton africain rappelle la réalité du monde hyperconnecté et interdépendant et celle de l’économie du numérique dominée par des acteurs hégémoniques, réalités qui nous contraignent à trouver des espaces de liberté et d’actions possibles afin de donner un minimum de sens à la notion de souveraineté, d’autonomie et d’indépendance.