Virus biologique, virus informatique

Contexte

Selon l’OMS, la Suisse est à ce jour, sur les 110 pays touchés par le virus COVID-19, en douzième position pour ce qui concerne le nombre de cas de personnes infectées. Ce classement ne tient pas compte de la densité de la population. Faire le calcul, du ratio du nombre de cas connus au regard de la population du pays, c’est peut-être nous rendre compte que la situation de la Suisse dépasse celle de notre voisin italien.

Comment disposer d’une juste cartographie des personnes infectées alors que le dépistage systématique n’est pas possible, que les porteurs de virus ne sont pas tous recensés, ni identifiés, surtout s’ils n’ont pas de symptômes, alors qu’ils sont un vecteur de propagation de l’infection.

 

Posture et exigences de sécurité

Comme en cybersécurité, les organisations qui ont développé des postures de gestion des risques sont mieux préparées que les autres à anticiper et à se mobiliser pour faire barrière à la propagation de virus, qu’ils soient d’origine biologique ou informatique.

Comment comprendre la difficulté de certaines instances dirigeantes à prendre des décisions pour mettre en place des mesures proactives et de préventives en temps voulu, c’est à dire à temps, pour préserver leurs capital qu’il soit informationnel ou humain? Aujourd’hui, comment ignorer la réalité du terrain et le fait que les mesures de précaution prises au plus tôt augmentent leur efficacité ?

Combien d’institutions privées ou publiques ont communiqué à leurs employés, les mesures de prévention, de protection et de précaution prises pour ne pas favoriser l’infection et la propagation du coronavirus SARS-CoV-2 (COVID-19) ? En fait, si certaines entreprises prennent des mesures particulières pour limiter l’exposition de leurs personnels, ce n’est pas le cas partout.

Le retard pris dans l’adoption de mesures de précaution est préjudiciable à la protection de la population. Les impacts du risque sanitaire sont subis par les individus qui, s’ils sont infectés, en porteront les conséquences financièrement mais aussi dans leur chair et dans leur esprit. Si le virus ne leur est pas fatal, être un vecteur de la maladie, avoir contaminé des personnes, y compris des proches qui peuvent en décéder, les affecteront.

Parmi les nombreuses questions que soulèvent les virus biologiques et informatiques, il convient de se demander :

  • Comment rester sain dans un monde de malades ?
  • Comment assurer sa sécurité et sa sûreté alors que la qualité de celles-ci dépend de celles des autres ?

 

L’urgence d’agir

Faire face à une menace de grande ampleur, invisible mais bien réelle, en se reposant sur le civisme des citoyens ou sur l’hygienne individuelle, ne suffit pas. Toutes démarches de sécurité reposent sur la responsabilité des dirigeants, une volonté politique, des mesures stratégiques et opérationnelles de prévention, de défense et de réaction cohérentes. Le faux sentiment de sécurité, la pensée magique consistant à croire que les problèmes n’arrivent qu’aux autres, que les virus s’arrêtent aux frontières de son organisation ou encore de croire que de ne pas voir le problème le fait disparaitre, sont des erreurs exemplaires.

Aujourd’hui, l’urgence n’est pas uniquement liée aux cryptovirus, qui depuis Wanacry en 2017, sont devenus des préoccupations des responsables de la sécurité informatique, de manière pragmatique, l’urgence est biologique, humaine. Toutefois, que devient la sécurité informatique en cas de pandémie, qui est disponible pour l’assurer ? Comment protéger le système d’information quand l’humain est défaillant ?

Mais à ce jour pour les institutions, il s’agit encore de décider et de mettre en place des mesures concrètes pour se protéger au mieux du Covit-19 et de contribuer à limiter sa propagation. Concrètement, par exemple, c’est faire en sorte que la distance minimale entre les individus soit respectée sur leur lieux de travail ou lors de leurs déplacements.

Est-ce que les salles de cours sont suffisamment grandes pour assurer une distance minimale entre les personnes ?

Est-ce que les lieux communs fréquentés par un grand nombre de personnes sont régulièrement et suffisamment désinfectés durant la journée ?

Force est de constater que ce n’est pas le cas dans nombre d’organisations. Ainsi par exemple, l’absence du port de masques de protection par le personnel employé dans la restauration et de l’absence de la distance minimale entre individus aux files d’attente des bureaux administratifs et autres points de vente (gares, poste, supermarchés, etc.), telle que préconisée par l’OFSP (Office fédéral de la santé publique) est une réalité. Comme l’est d’ailleurs, l’absence de produit hydro-alcoolique pour la désinfection des mains aussi bien aux entrées des bâtiments, à proximité des toilettes ou encore à côtés des ascenseurs.

Pourtant, ce sont des précautions simples, indiquées par les autorités fédérales ayant pour but d’éviter la propagation rapide du virus au sein de la population.

 

COVID-19, sommes-nous prêts?

Y a-t-il un plan d’action pour le tutorat de cours dispensés par voie informatique? Comment assurer l’équité de traitement entre étudiants et évaluer les contrôles continus et autres examens si quelques étudiants sont absents, se trouvant en quarantaine volontaire suite à la fréquentation de zones à risque ou à la contamination d’un proche ?

Qu’avons-nous appris des exercices stratégiques concernant les risques d’épidémie et de pandémie en Suisse et de l’expérience de pays affectés avant nous ?

Sommes-nous prêts à faire face au COVID-19 et à saisir l’opportunité de penser et de faire différemment et surtout de tirer parti du numérique et de toutes ses promesses ?

Sommes-nous prêts à croire que les établissements d’enseignement ne seront pas un maillon de la chaîne de contamination ?

Sommes-nous prêts à faire face à un tsunami de virus informatique et à la combinaison d’une infection virale biologique et informatique ?

Sommes-nous prêts à vouloir privilégier la santé de tous et de toutes ?

Sommes-nous prêts à prendre des décisions courageuses ?

La crise « Covit-19 » est un révélateur de notre capacité à gérer les risques, à déterminer les risques acceptables et à savoir qui les assume. À l’heure des décisions, nous sommes face à nous mêmes, aucune intelligence artificielle ne peut se substituer à l’intelligence naturelle ou au bon sens. Il est temps que l’humain reprenne en main son destin. Il est temps de privilégier le progrès technologique au service du vivant et de faire en sorte que l’humain ne soit pas uniquement une ressource à optimiser au service du pouvoir économique et technologique.

 

La cybersécurité selon Sun-Tzu

Cet article met en évidence la difficulté ontologique à penser une cybersécurité au service de l’humain alors que les technologies du numérique servent des objectifs de rationalité économique et sont au service des pouvoirs économique, politique et de la guerre.

Article adapté de l’article de S. Ghernaouti publié dans la revue de la Gendarmerie française N° 266, Numéro spécial « L’Humain au cœur de la cybersécurité ». Décembre 2019 (p.55 – 60) sous le titre “Comment penser la cybersécurité au service des générations futures?”.

 

« La guerre est la grande affaire des nations ; elle est le lieu où se décide la vie et la mort ;

elle est la voie de la survie ou de la disparition »

Sun-Tzu[1].

  

Le numérique au cœur des guerres

Internet et le cyberespace constituent une extension des lieux d’expression du pouvoir et de la confrontation des rapports de force traditionnels que sont la terre, la mer, l’air et l’espace extra atmosphérique. Au XXIe siècle, la guerre se déroule aussi dans les territoires virtuels du cyberespace. L’informatique est au cœur des guerres idéologique, culturelle, scientifique, économique et politique. Cette nouvelle forme de guerre par l’information et le code informatique permet de « soumettre l’ennemi sans ensanglanter sa lame»[2], pour reprendre l’expression du célèbre  général chinois Sun-Tzu (Ve siècle avant J.-C.).

Internet peut être instrumentalisé pour infliger des dégâts à l’ennemi sans l’envahir physiquement ni géographiquement, mais en réduisant son pouvoir dans les domaines stratégique et opérationnel, dans les mondes physique et virtuel. L’informatique contribue à projeter du pouvoir et à contraindre l’adversaire dans ses dimensions civile et militaire. Gagner et préserver des parts de marché passe par l’espionnage économique et industriel, l’intelligence économique, la cybersécurité, la surveillance des télécommunications et les cyberattaques. Le point commun entre tous ces modes opératoires de cybercombat est qu’il est difficile de déterminer leur origine ,d’identifier les acteurs qui les opèrent, et d’attribuer clairement la responsabilité aux puissances qui les ordonnent. Le cyberespace procure une couche d’isolation protectrice que l’on peut rapprocher là encore du maître chinois qui affirmait que « …qui connait l’art de se rendre invisible et de tout voir ne rencontrera pas d’ennemi … »[3].

 

Cinq facteurs stratégiques pour penser et gagner la guerre

Selon Sun-Tzu, la guerre est subordonnée à cinq facteurs : le climat, la topographie, l’organisation, le commandement et la vertu. Toujours actuels, ils peuvent être transposés au cyberespace.

Les usages numériques, les vulnérabilités matérielles, logicielles et humaines, les acteurs de l’écosystème numérique ainsi que le moment opportun peuvent être constitutifs du climat. Les territoires numériques, les infrastructures matérielle et logicielle informatique et télécom, y compris celles du Darknet font parties de la topographie.

La chaîne d’approvisionnement logistique de l’écosystème numérique, le cycle de vie des systèmes, les services et produits (fabrication, diffusion, maintenance, recyclage, destruction), les modèles économiques de déploiement et de captation de valeur, sont des dimensions de l’organisation. Cela comprend les capacités à influencer, à mobiliser, à déstabiliser et à rallier des acteurs à effectuer des actions allant dans le sens de la défense de certains intérêts. La faculté de mobiliser des communautés de cybercombattants, de patriotes, de dissidents, d’hacktivistes, de consommateurs (e-commerce, jeux en ligne, réseaux sociaux,…), en s’appuyant sur des dispositifs d’information et de désinformation (fake news, …) peuvent être considérées comme des leviers d’actions de lutte, d’attaque et de défense.

« Le commandement dépend de la perspicacité, de l’impartialité, de l’humanité, de la résolution et de la sévérité du général »[4]. Ces attributs, hormis celui d’humanité, pourraient s’appliquer aux logiciels d’intelligence artificielle (algorithmes d’aide à la prise de décision ou de prise de décision) dans un contexte de commandement militaire et d’armement. De plus en plus d’armes intègrent des capteurs, des logiciels d’analyse, de téléguidage, de géolocalisation, d’aide à l’identification des adversaires, d’aide au tir de précision et à la priorisation des actions de tir. C’est tout un arsenal de missiles, fusils mitrailleurs, drones, robots de détection d’engins explosifs, robots de reconnaissance, ou de munitions « intelligentes », qui existe et qui renforce l’assurance d’atteindre les cibles en faisant souvent plus de dégâts que des armes traditionnelles. Tout ceci vient compléter les tenues de combat intelligentes et les exosquelettes (smart suit, smart gun, smart soldier). Les technologies de l’information se métamorphosent en co-combatants[5], véritable équipiers des soldats et officiers, tant sur le théâtre des opérations que dans les sites et chaînes de commandement. L’intelligence artificielle contribue à l’automatisation de la prise de décision, avec comme horizon la possibilité de prendre la décision de tuer sans intervention humaine, pour ouvrir le feu et riposter.

 

L’intelligence artificielle au service du hard power

Au service du hard power, l’intelligence artificielle promet efficacité et performance en augmentant la puissance de frappe et la distance de tir, ce qui réduit d’autant l’exposition aux risques de son détenteur.

La résolution et la sévérité du Général deviennent relatives à :

  • sa maîtrise des infrastructures numériques et des infrastructures énergétiques;
  • sa compétence en recherche et développement en informatique;
  • sa capacité à former et entrainer ses troupes, à planifier et à conduire des opérations et des cyberopérations;
  • ses dispositifs de renseignement et d’analyse;
  • ses moyens de cybersécurité et de cyberdéfense, la robustesse et la résilience de ses infrastructures informatiques.

 

De la vertu

La soumission volontaire aux GAFAM reflète le concept de vertu qui selon Sun-Tzu « assure la cohésion entre supérieurs et inférieurs et incite ces derniers à accompagner leur chef dans la mort, comme dans la vie, sans crainte du danger »[6]. Les nouvelles manières de communiquer peuvent participer à des actions d’endoctrinement, de manipulation psychologique, d’activisme ou de marketing de la guerre par exemple.

La vertu, est une qualité qui selon Montesquieu, comme le rappelle Jean Lévi[7], fait référence à la force morale conférée à une nation par ses mœurs, ses institutions et son régime politique. Elle est une disposition à faire le bien et à éviter le mal et est liée au mérite de l’homme, à son courage, à sa sagesse. Cela pourrait englober les capacités du numérique à préserver le vivant et ses conditions de vie sur Terre (paix, climat, …).

 

La force de frappe numérique transforme les rapports de force

Sun Tzu affirme qu’« un général avisé s’emploie à vivre sur l’ennemi »[8] . C’est précisément ce que font les acteurs hégémoniques du Net puisqu’ils développent leur puissance et leur pouvoir à partir des usages numériques qui autorisent la captation et l’exploitation des données et des méta données. Les pouvoirs politiques, militaires et économiques des États sont liés à leur capacité à contrôler les technologies de l’information. Les 7 avantages stratégiques de la maitrise du numérique dans les rapports de force du XXIe siècle sont:

  1. Maîtriser le code informatique offensif et défensif, l’automatisation et la rapidité des prises de décisions et des actions qui en découlent, la cybersécurité, la cyberdéfense.
  2. Dominer le renseignement, posséder le plus d’informations pertinentes, savoir les transformer en avantage compétitif et en leviers d’actions efficaces.
  3. Maitriser les systèmes de géolocalisation, de géoréférencement, de navigation.
  4. Être en capacité d’espionner, de surveiller, de contrôler, d’acheminer, de traiter, de stocker l’information et le code informatique.
  5. Posséder les meilleurs instruments pour influencer, déstabiliser, attaquer, dissuader.
  6. Disposer des meilleures conditions pour rendre dépendants des entités à des services, infrastructures numériques, solutions informatiques et infrastructures critiques.
  7. Détenir le système de récompenses et de châtiments efficaces.

La force de frappe technologique, dont fait partie l’intelligence artificielle, n’est maîtrisée que par un petit nombre d’États et par de grands acteurs privés multinationaux. Cela soulève de complexes questions relevant par exemple du désarmement, des rôles et responsabilité des acteurs, de la cyberrésilience, de la géopolitique du cyberespace ou de développement durable du numérique (fabrication, élimination et recyclage des déchets informatiques, rayonnement électromagnétique, consommation énergétique et des terres rares, …).

 

Vers un technobiocide ?

Médiée par la technologie, chaque action permet d’instaurer une distance entre le monde concret et l’humain. La distance géographique et émotionnelle, délivre l’humain de faire la guerre et de connaitre l’horreur des champs de bataille. C’est ce qu’autorise également les cyberattaques sur des systèmes d’information d’infrastructures vitales. Poussée à l’extrême, la « technologisation » de la guerre traditionnelle, les de nouvelles formes de guerres cybernétiques pourraient conduire, non seulement à des technogénocides, mais aussi à des technobiocides[9], du fait du risques de destruction globale de l’écosystème par la technologie. Dans le cyberespace, les activités relevant d’actes de guerre, au sens traditionnel du terme, sont complexes à identifier et à contrôler, car il est difficile :

  • de connaitre l’ennemi[10], d’attribuer avec certitude l’origine des cyberattaques et donc de riposter ;
  • de faire respecter le droit humanitaire et celui de la guerre ;
  • d’organiser des opérations d’envergure sans y impliquer des militaires.

 

L’intelligence artificielle au service de l’humain et des générations futures ?

La cybernétique dont l’origine renvoie à l’art de gouverner, est en train de s’imposer et de prendre le commandement de toute chose, de tout acte. Le numérique instaure un nouvel ordre du monde. L’intelligence artificielle, avec ses capacités à prendre des décisions ou à y contribuer, dans une logique de performance et de rationalité économique, se situe dans le prolongement du transfert des capacités de l’humain vers la machine. Elle entraîne une perte de compétences, une réduction d’autonomie et une dépendance, voire une addiction aux systèmes. L’intelligence artificielle en réduisant l’erreur et donnant l’illusion qu’elle supprime l’incertitude conduit à une normalisation des comportements et à la ruine de la diversité. Elle permet de prédire et d’orienter des choix pour consommer et faire faire. Des prédictions et propositions engendrent des manipulations psychologiques et pilotent les actions. Les fausses informations (infox) peuvent renforcer le pouvoir de manipulation. L’intelligence artificielle, dont la finalité est déterminée par ses concepteurs et propriétaires a des mode opératoire, qualité et sécurité opaques et souvent incontrôlables.

 

Perspectives

Lorsque les données et le code informatique sont une arme de guerre et l’intelligence artificielle du matériel militaire, il devient nécessaire de s’interroger sur le type de société dans laquelle nous voulons vivre. Est-ce celle d’une meilleure connaissance du réel et des consciences éclairées ? Celle de la gestion algorithmique, de la surveillance et du contrôle permanent ? Celle du culte des machines ou encore celle du plein pouvoir du techno-libéralisme ?

L’obligation de subir le numérique nous donne le droit d’en connaître la finalité (pour quels bénéfices et renoncements et pour qui). C’est alors que nous pourrons réellement penser « l’humain au cœur de la cybersécurité » et réaliser des solutions pragmatiques et efficientes.

Impossible de faire l’économie de l’analyse des impacts de l’écosystème numérique, du contrôle des données, des mesures de cybersécurité et de cyberdéfense pour les générations futures. Comme pour le changement climatique, c’est elles qui en paieront le prix.

 

Références

[1] Sun Tzu et autres stratèges. Les sept traités de la guerre, traduit du chinois et commenté par Jean Lévi. Collection Pluriel, Hachette Littératures, 2008, p.87.

[2] Ibid. Chapitre III, p.97

[3] Ibid Chapitre XXVI « Arcane du dragon », p. 396

[4] Ibid. p.92

[5] Notion de cohabitation homme-robot (cobotique)

[6] Ibid. p.91

[7] Ibid. p.15

[8] Ibid. Chapitre II, p.95

[9] Risque qui existe depuis la bombe atomique, mais qui pourrait advenir sans elle !

[10] L’ennemi connaît sa cible, les données dont il a besoin pour lui nuire sont disponibles (réseaux sociaux, Darknet, …).

Au-delà des questions techniques du dossier électronique du patient, comment bâtir la confiance ?

Les données de santé, des données d’importance vitale

Le dossier médical est au cœur de la chaîne de soin, de celle de la médecine personnalisée et mobile, comme de la chaîne d’approvisionnement de la santé (pharma, assurance, recherche, …).

Les données relatives à un patient caractérisent ce qu’il est, contrairement à ses données financières qui sont relatives à qu’il possède. La grande différence entre l’être et l’avoir est que les données relevant de la première catégorie ne peuvent pas être remplacées, ce qui, en revanche, est aisé de faire lorsqu’il s’agit d’un numéro de carte de crédit qui aurait été piraté par exemple. De plus, ce qui est fondamentalement nouveau, c’est la dimension prévisionnelle des données de santé, à partir desquelles des traitements algorithmiques peuvent caractériser des patients (déterminer leur devenir, probabilité de développer une pathologie, de guérison, de représenter tel ou tel potentiel médicommercial, etc.).

Par ailleurs, le vol massif de données de santé expose la vie des personnes avec des conséquences variables pouvant aller de la perte de confidentialité, au chantage, à la mise en danger de la vie humaine par exemples. Or, les pertes de données consécutives à des erreurs de conception, de gestion, d’utilisation, des malveillances ou des cyberattaques sont devenues courantes dans le monde et cela à l’échelle planétaire sans épargner le domaine de la santé.

Le dossier électronique du patient (DEP) est un facteur critique de succès de la cybersanté

Le dossier médical du patient, avec ses problématiques de protection et de partage dans une double optique de rationalité économique et de performance des soins, est un levier de la transformation numérique de la médecine.

Le succès de la médecine prédictive, préventive, personnalisée et participative dépend pour une grande part, de la pertinence des informations collectées, de leur accessibilité et de leur traitement algorithmique. Ainsi, au-delà du simple recueil d’informations de santé des individus, c’est tout un écosystème de médecine informatisée et son économie, qui dépend du dossier électronique du patient.

Avec la médecine informatisée, des potentiels d’amélioration de la prise en compte des soins sont en train d’être explorés, notamment avec de nouveaux acteurs comme Google pour ne citer qu’une entité issue du monde du numérique et non directement de celui de la santé.

Sur le chemin de la confiance

L’édition 2019 du Swiss Data Forum a consacré une table ronde sur le thème « Comment bâtir la confiance dans le cadre du dossier électronique du patient (DEP) ? » Celle-ci a regroupé plusieurs personnalités notamment issues d’organisations liées à la santé dans le domaine de la médecine, de la technologie et de l’assurance. Des soignants et des patients ont aussi eu l’occasion d’exprimer leurs visions et questionnements. En synthèse ce partage et ce débat ont fait ressortir une série de questions liées aux conditions indispensables pour établir la confiance dans le DEP :

  1. À qui appartiennent les données de santé ?
  2. Est-ce que la numérisation et l’informatisation dans le domaine de la santé entraînent la fin du secret médical ?
  3. Est-ce que l’écosystème numérique de la santé va favoriser des logiques de contrôle des individus (comportements, surveillance de masse et personnalisée, profilage, croisements des données, mutualisations et partage des données avec d’autres acteurs (assureurs, employeurs, … ) ?
  4. Est-ce que le patient va se transformer en client sous tutelle et dépendance numérique ?
  5. Est-ce que les finalités initiales du DEP et leurs données ne seront pas détournées pour, peut-être, contribuer à des logiques de privatisation des données de santé et du vivant ?
  6. Est-ce que la vitesse d’adoption du numérique, sans mise en place préalable d’une culture, de moyens et de compétences spécifiques au numérique et à la cybersécurité est un facteur aggravant de risque ?
  7. Comment un patient peut-il donner un consentement éclairé pour autoriser le partage de son dossier et de ses données, sans bien comprendre ni de quelles données il s’agit, ni sur quelle durée et quelles conditions porte ce consentement ?
  8. Quels sont les rôles et responsabilité des acteurs en cascade et des intermédiaires techniques ?
  9. Comment mettre en œuvre un contrôle d’accès au DEP efficace en terme de sécurité informatique et pertinent au regard des besoins des soins et parfois de leur urgence ?
  10. Comment contrôler la disponibilité, la véracité, l’authenticité et l’intégrité des données et s’assurer de leurs différents niveaux de confidentialité ?

Comme dans bien d’autres domaines, l’informatisation et l’automatisation de la collecte et du traitement des données de santé, nous font comprendre que les ruptures technologiques sont des ruptures stratégiques, culturelles et sociétales qu’il faut appréhender aux bons niveaux décisionnels et opérationnels, tout en maîtrisant les risques à court et long termes.

 

 

 

 

 

 

 

 

 

 

 

La cybersécurité peut-elle répondre à l’enjeu climatique ?

Risque cyber et risque climatique

Le risque climatique est devenu une urgence planétaire internationale, les technologies du numérique peuvent contribuer à le maitriser à condition d’en limiter ses impacts environnementaux.

Dès lors comment prendre conscience des conséquences des pratiques numériques sur les ressources naturelles, la consommation énergétique et les gaz à effet de serre ? Comment appréhender les cyberrisques à travers le prisme de l’écologie et du développement durable ?

S’intéresser à ces questions nécessite de se pencher en particulier sur la relation d’interdépendance qu’entretien les technologies de l’information avec le système d’alimentation en électricité.

Pas de cybersécurité, pas d’électricité et pas de numérique, pas de numérique pas d’électricité…

Comme pour l’ensemble des activités industrielles, la transformation numérique du secteur de l’énergie est une réalité amorcée depuis le siècle passé. Désormais, la production et la distribution d’électricité dépend des technologies du numérique et ces dernières sont dépendantes de l’électricité.

L’enjeu de la cybersécurité dans le secteur de l’électricité s’exprime par le constat suivant : pas d’électricité pas de numérique et sans numérique pas d’électricité possible. Cette double dépendance et interdépendance témoigne de la criticité de la cybersécurité pour le secteur de l’énergie.

En devenant un « réseau intelligent », le réseau électrique s’est ouvert aux cyberrisques. De facto, leur non maitrise peut mettre à défaut la disponibilité, l’intégrité et la sûreté de fonctionnement des infrastructures électrique et porter atteinte aux individus, aux organisations et à l’État. La sécurité de l’approvisionnement en électricité du pays est fragilisée par l’exposition des systèmes et réseaux informatiques qui composent le système énergétique, aux cyberattaques. Dès lors, bien investir dans la cybersécurité, n’est pas une option. Cela nécessite de répondre notamment aux questions suivantes : qui finance, qui est responsable et qui est imputable en cas de sinistre ?

Ces questions complexes ne représentent que l’arbre qui cache la forêt de celles encore plus complexes de la maitrise de la consommation énergétique des activités numériques de chacun et des infrastructures informatiques et de télécommunication qui les supportent.

Quels sont les rapports entre  les transitions numérique et climatique ?

A l’heure où la société civile s’empare de la thématique de la transition écologique (préservation des ressources, développement durable, transport, alimentation …), le rapport entre les technologies de l’information et le climat demeure encore peu exploré.

Alors que l’habitant s’informe sur les moyens de transport écoresponsables, (re)découvre une alimentation plus saine et respectueuse de l’environnement, est-il suffisamment informé des enjeux et conséquences de ses pratiques numériques ? À quel point la transformation numérique de la société et la fuite en avant technologique impactent-elles notre environnement ? Un usage plus écologique des infrastructures informatiques (smartphones, serveurs, réseaux, plateformes et services numériques) est-il possible ?

Comment devenir  homo numericus écoresponsable?

Une conférence pour sensibiliser à la problématique de la consommation des ressources naturelles pour fabriquer les infrastructures numériques, à celle des déchets électroniques et informationnels, pour analyser le développement d’un cyber risque majeur, lié à l’augmentation de l’empreinte environnementale, mais aussi pour explorer les impacts de cyberattaques sur les infrastructures énergétiques et industrielles ainsi que leurs conséquences environnementales.

L’évènement, gratuit, organisé conjointement par le Swiss Cybersecurity Advisory & Research Group de l’Université de Lausanne, la Fondation SGH – Institut de recherche Cybermonde, en partenariat avec l’Académie suisse des sciences techniques, le 21 novembre 2019 apportera des éclairages sur la manière dont le numérique peut contribuer au chaos climatique ou être un facteur de réussite à sa maitrise, à la diminution de la consommation énergétique et à la minimisation des gaz à effets de serre. Des pistes seront explorées pour maximiser l’impact positif du numérique sur l’environnement tout en minimisant ceux négatifs et un plaidoyer pour une sobriété numérique proposera une ouverture vers une meilleure prise en compte des besoins fondamentaux par le numérique afin de répondre notamment à la question de savoir à quelles conditions, le climat peut-il être sauvé par le numérique et les technosciences?

Renseignement et inscription :

https://www.scarg.org/

 

 

Le miracle technologique n’est pas (encore) au rendez-vous

Pour une informatique de complémentarité, non de substitution

J’ai fait un rêve, c’était il y a longtemps, c’était au siècle dernier, à l’époque ou l’informatique était complémentaire de l’existant, elle y était supplémentaire et ne venait pas en substitution. C‘était un rêve de liberté, le rêve d’un Internet porteur de tous les espoirs d’égalité, de fraternité, de paix, d’un Internet pouvant réaliser un idéal d’universalité et de diversité.

Quatre décennies plus tard, l’écosystème numérique que nous avons contribué à construire est celui de la soumission aux algorithmes, de la servitude volontaire aux injonctions numériques et aux machines dites intelligentes. Avec une certaine illusion de liberté, nous sommes devenus des consommateurs – spectateurs dociles et dépendants.

Nos prothèses numériques nous relient à leurs fabricants qui nous perfusent de contenus en échange de la captation de nos données, de nos goûts, de nos sentiments, de nos déplacements, de nos localisations ou encore par exemple, de nos paramètres physiologiques.

Commerce de données et marché de la surveillance

Dépossédés de nos données, nous sommes nus, transparents, invisibles. Plus nous nous laissons déposséder, plus nous nous chosifions. Nous devenons des systèmes d’extraction de données, sous surveillance, contrôlés à distance, des systèmes à améliorer. Nous entrons dans l’ère de l’obsolescence programmée de l’humain. Ce faisant nous nous adaptons à cette nouvelle réalité technico-économique pour exister.

Acceptation passive et engrenage de la soumission

Ceux qui sont nés à l’ère de de la soumission au numérique et qui ne connaissent rien d’autres et qui développent des comportements normalisés par les applications du big data, sont des sortes d’hybrides « mi-humain, mi-machine », perfectionnables par mises à jour logicielles et greffes de nanotechnologies, contraints à être mesurés et optimisés, à être performants même dans les actes de la vie intime.

Info-obèses, ils sont soumis à une communication et une information en temps réel, à la tyrannie des alertes électroniques et à celle de la transparence, du conformisme des réseaux sociaux, de l’administration algorithmique des mœurs, des vies privées et professionnelles et de la gouvernance économique et politique.

Sous anesthésie numérique, pour être efficaces selon des critères définis par des fournisseurs, avec un mode d’emploi de la vie déterminé par des algorithmes, ils sont seuls et connectés, incapables de penser, de juger et de décider par eux-mêmes. Ils pratiqueront un métier ubérisé, au service de grandes plateformes.

Ce que veut dire être nés sous le joug du numérique

Nés sous le joug du numérique, ils se contenteront de vivre comme ils sont nés. Soumis à la propagande d’une vision du monde simplifiée, fabriquée sur mesure et instrumentalisée. Nul besoin de voter, plus besoin de démocratie, il suffira d’adhérer à une pensée préfabriquée, partagée par la masse des individus connectés. Manipulation, gestion de l’opinion et fake news seront les nouvelles manières d’exprimer des opinions en substitution aux débats.

Le numérique peut-il être philanthropique ?

Le 21ème siècle est celui de l’omniprésence des technologies électroniques et de l’usage extensif de l’informatique et des télécommunications dans tous les domaines de la vie, dans toutes les activités et cela à l’échelle mondiale. Le développement des sciences cognitives et leur application à l’informatisation de la société ouvrent la porte à de nouveaux possibles. Outre les potentialités infinies et les espoirs d’un monde meilleur transformé par la Technologie, celle-ci modifie en profondeur avec une ampleur sans jusque-là inconnue, notre réalité. Or, les technosciences sont aussi au service de l’expression de nouvelles formes de pouvoir et de violences.

La philanthropie est le sentiment qui pousse les hommes à venir en aide aux autres, le philanthrope est celui qui aime les hommes et qui s’occupe d’améliorer leur sort. Il peut être aisé de penser que dans la mesure ou des services du numérique contribuent à améliorer la vie, ceux qui les conçoivent, les mettent en œuvre, les gère, sont des philanthropes. C’est ce que n’hésitent pas à soutenir certains patrons des entités commerciales hégémoniques du Net, qui se présentent comme philosophes, philanthropes, agissant pour le bien de l’humanité, voire, accomplissant une mission sacrée.

Pour autant, leurs discours sont-ils vraiment crédibles au regard de la réalité de leurs actes ? Est-ce être philanthrope que de donner une dimension qu’ils considèrent comme éthique aux impératifs stratégiques du développement économique de leur entreprise. Leurs discours « éthique » es alors un véritable levier de persuasion des foules.

Des rêves et des utopies à opposer à la violence technologique invisible

Enfant, je n’ai jamais rêvé de danser avec un robot, de haut débit, de relations virtuelles, de surveillance de masse ou de machines qui me disent quoi faire, quoi penser ou de quoi avoir envie.

Je rêve d’un monde digital au service du vivant, pas d’une humanité digitale. Un monde où les technologies seraient au service du vivant. L’humain ne serait ni un objet à optimiser, ni un robot de chair et de sang au service de plateformes numériques.

Je rêve d’une philanthropie qui transgresserait les limites du néolibéralisme numérique pour que l’Homo numericus ne deviennent pas un artéfact en situation d’addiction.

Je rêve d’utopies numériques positives, avec de nouveaux droits humains fondamentaux reconnus et respectés, comme celui du droit à la déconnexion et celui à ne pas être sous surveillance informatique.

Je rêve d’un nouveau paradigme culturel et philosophique de l’informatique, d’une alternative pour ré enchanter le monde.

Je rêve d’une société qui serait en mesure de transformer le paradigme d’informatisation, issu de la rationalité économique, de la performance et de la croissance infinie, qui permette de soutenir le développement durable, préserver les ressources et faire face aux problèmes majeurs.

Cela nécessite de penser autrement la création de valeur par le numérique, le partage de la valeur générée, et ainsi de penser au partage, à la fin d’une croissance économique infinie, à l’empathie, à l’adoption de comportements responsables.

Je rêve d’une décroissance technologique heureuse, au courage de penser et de faire, au refus de l’instrumentalisation des conditions de penser.

Je rêve d’une écologie du numérique bienveillante au service du vivant, l’économie numérique transgresseraient les limites du néolibéralisme, les choix technologiques se développeraient à condition qu’ils soient bons y compris pour les générations futures.

Je rêve de rêves sans écrans.

 

Éduquer à la cybersécurité, une responsabilité de société

Eduquer à la cybersécurité, une responsabilité de société

La fuite de données personnelles et sensibles de plus de 20 millions d’Equatoriens révélée durant l’été 2019, est due au fait qu’une société de conseil en marketing, analyse de données et de développement logiciels, n’avait pas sécurisé le serveur sur lesquelles elles étaient stockées et mises en ligne. Le dirigeant de l’entreprise Novaestrat , spécialisée dans analyse de données a été arrêté par les forces de l’ordre équatoriennes.

Cette nième affaire de fuite de données est emblématique de la réalité et du peu de sérieux avec lequel sont appréhendées les problématiques de cybersécurité et de protection des données à travers le monde.

Sensibiliser, former, entrainer à la cybersécurité est devenu urgent afin que les pratiques de l’informatique évoluent pour tenir réellement compte des risques qu’elles font peser sur la société. Ces risques concernent toutes les activités humaines, par conséquent l’enseignement de la cybersécurité doit être intégré dans tous les champs disciplinaires.

L’enjeu est vaste, et y répondre est difficile mais pas impossible.

Sur le terrain de l’enseignement supérieur, et de manière complètement pragmatique, cela suppose la mise à disposition d’une offre de cours liée à la cybersécurité, adaptée aux titres auxquels pourront prétendre les futurs diplômés. Sachant que ces derniers deviennent après seulement quelques mois de pratiques des consultants seniors en cybersécurité, voire, des responsables en sécurité de l’information. Dès lors, l’enseignement et ses conditions de validation des acquis, examens, contrôles continus, projets, et travail de mémoire se doivent d’être particulièrement exigeants.

Il incombe aux organes de formation, de bien former, voire de former mieux les individus à la gestion des cyberrisques, qui sont de plus en plus graves. Il s’agit d’éduquer à la cybersécurité dans toutes les disciplines, car ces risques concernent tous les métiers. Où sont par exemples, les cours de cybersécurité à destination des futurs médecins, ingénieurs, avocats, architectes, gestionnaires et même des futurs marketeurs, etc ? Du moins ceux-ci, ont-ils suivi lors de leur cursus, une sensibilisation à la cybersécurité et à la protection des données ?

Si l’apparition récente de cursus spécialisés en cybersécurité est une excellente initiative, néanmoins, il est intéressant de pouvoir questionner le contenu effectif des formations dispensées et de vérifier leur adéquation aux besoins de la société. Les experts formés le sont-ils vraiment ? Si tel ne serait pas le cas, que faire pour améliorer la situation ?

Évaluer ou valider ?

Par ailleurs, dans la plupart des institutions universitaires, on assiste depuis quelques années à une augmentation accrue de l’importance accordée à l’évaluation des professeurs par les étudiants, entrainant par effet boomerang, des approches clientélistes et une diminution des exigences envers les étudiants. Lorsque cette forme de démagogie prévaut sur l’exigence pédagogique, c’est la qualité des spécialistes formés qui diminue. Cette mutation invisible et sournoise se reflète également dans les termes à utiliser pour décrire, non plus les méthodes d’évaluation des étudiants, mais celles de validation des acquis par ces derniers. Ce glissement n’a rien d’anodin. Désormais, seuls les enseignants sont évalués, non pas par leurs pairs, mais par des étudiants qui ont, eux pour objectifs, d’acquérir des crédits pour obtenir un titre académique.

Vers une approche clientéliste de l’éducation ?

Cela déplace le curseur pour les clients-étudiants de la motivation des études tournées idéalement vers l’apprentissage des connaissances et le développement des compétences vers le gain d’un diplôme, c’est à dire d’un label institutionnel.

Si l’étudiant devient client, alors l’enseignant peut être incité à devenir vendeur. L’institution, dans ce nouveau contexte, pourrait être tentée de brader les crédits de cours ou les diplômes. En fait, pour les vendeurs-enseignants, cela se traduit par une incitation, voire une pression à ne donner que des travaux faciles à réaliser, à supprimer les mauvaises notes, à ne pas prendre en compte les travaux échoués, à surnoter les prestations des étudiants, à ne pas donner trop de matières ou de contraintes de travail, en bref à plaire aux étudiants. La tentation peut être grande de céder à cette pseudo-facilité, y résister est équivalent à nager à contre-courant. Évaluer la qualité effective des prestations des étudiants revient parfois à pratiquer un sport extrême par la prise de risque que cela suppose.

Ne pas résister à l’uniformisation des savoirs « faciles » et au nivellement par le bas, conduit à transformer des cours en produits attractifs dont le marketing s’appuierait sur la minimisation du rapport effort de l’étudiant/ obtention de crédits par ce dernier. Le nouveau contrat pédagogique implicite consisterait à attribuer de bonnes notes à tous les acteurs sachant que la note des professeurs, dépend de la note des étudiants.

Contribuer au développement d’un écosystème numérique de qualité et de confiance

L’incompétence, la négligence, des défaillances dans la conception et la mise en œuvre des infrastructures numériques, dans l’analyse des risques, des défauts de sécurité informatique, des erreurs humaines, des erreurs de gestion, d’utilisation des systèmes d’information, engendrent des coûts directs et indirects pouvant conduire à la perte de données, de propriété intellectuelle, de compétitivité et de pérennité des organisations mais aussi à la perte de vie humaine.

Accorder, un titre en système d’information, en informatique, en intelligence artificielle ou en sécurité du numérique, par exemples, c’est accorder un label de qualité garantie par une institution académique, afin que les détenteurs de ces titres contribuent au développement de l’écosystème numérique en toute innocuité pour la société, car désormais nos vies dépendent du numérique.

Accorder le droit de travailler en informatique et en particulier en cybersécurité, c’est accorder le « droit de tuer », c’est pourquoi il est de la responsabilité des enseignants et des institutions de reconnaitre à leur juste valeur la réelle qualité des prestations des étudiants selon des critères rigoureux, objectifs et rationnels. Cela est non seulement une obligation, mais un devoir envers les employeurs, la société, et les générations futures.

 

 

 

Comment penser la cybersécurité à l’heure de l’esclavage numérique ?

De nouvelles formes d’esclavage

Pour identifier les manières dont les technologies de l’information contribuent à l’esclavage moderne, observons l’écosystème numérique actuel et confrontons-le aux définitions communément acceptées liées à l’esclavage traditionnel pour contribuer à définir :

  • ce qu’est un esclave à l’ère de la société de l’information, de l’hyper connectivité, du big data et de l’intelligence artificielle
  • les conditions d’esclave numérique et d’esclavage numérique

afin d’apporter un regard critique sur la manière dont l’économie numérique alimente cette nouvelle forme d’esclavage moderne.

Ainsi, le parti pris de cet article n’est pas d’insister sur la manière dont le monde criminel s’est approprié les technologies du numérique pour augmenter la performance et la profitabilité de ses activités criminelles (traite d’êtres humains, mais aussi des espèces vivantes (trafic et exploitation d’animaux) par exemple.

Qu’est-ce qu’un esclave numérique ?

D’après le dictionnaire, un esclave est :

  • Une personne qui n’est pas de condition libre, qui est sous la puissance absolue d’un maître ;
  • Un être humain traité comme une marchandise, que l’on peut acheter, vendre, posséder.

Attardons-nous sur ces éléments de définition en les transposant dans le monde numérique que nous connaissons.

Concernant la condition libre

Diverses interprétations sont possibles selon la perspective appréhendée, celle de l’utilisateur-consommateur de service et celle de la personne travaillant dans la fourniture de services. Selon la première perspective, le fait d’être obligé de passer par des plateformes numériques pour obtenir des prestations (emploi, transport, santé, …) et dans la mesure où des services qui existaient dans le monde réel (avec des humains qui réalisaient le service) n’existent plus, ou dans la mesure ou leur coût d’accès sont prohibitifs, ne sommes-nous pas en droit de penser que les individus sont devenus captifs des plateformes numériques ?

Captif, parce qu’il n’a pas le choix (outre celui de s’en passer, ce qui n’est pas un choix) ;

Captif parce qu’il est devenu dépendant d’un service numérique et d’un fournisseur ;

Captif car travaillant insidieusement pour le fournisseur comme employée non déclaré, non rémunéré et sans couverture sociale.

Un captif est un prisonnier !

La guerre constitue une des sources de l’esclavage, dans diverses périodes de l’histoire, des prisonniers sont devenus des esclaves.

Nous vivons dans des conditions de guerre économique permanente et cela à l’échelle mondiale.

L’économie numérique s’inscrit dans une logique libérale de recherche de profit.

Pour la majorité des organisations, la transformation numérique se traduit par le remplacement des personnes par des machines et l’innovation qui prévaut s’exprime en termes de substitution et de conditions de travail dégradées.

Est esclave, une personne qui se laisse dominer, asservir- ne dit-on pas être esclave de ses besoins, de ses habitudes, de ses passions ? Cela peut être le cas de certains qui ont développés des comportements addictifs à des réseaux sociaux ou à des jeux en ligne pour ne donner que deux exemples.

Une personne, quel que soit son âge, qui souffre de la peur constante de rater, de manquer quelque chose (FoMO – Fear of missing out), en état d’alerte permanente est alors aliénée, dépendante, comme l’était un esclave du monde antique, tributaire de son maître.

Je ne m’attarderai pas sur l’esclave selon la perspective de la personne employée des fournisseurs de technologies et de services, car cela nous amènerait à d’autres considérations sur le travail qui nous éloigneraient de notre thème principal de réflexion.

Toutefois, j’aimerai juste faire référence aux conditions de travail des employés des usines de fabrication des équipements électroniques en Chine (scandale des suicides à l’usine Foxcon A Shenzhen, sous-traitant chinois d’Apple, Dell ou Nokia) et de ceux des entrepôts de grandes distribution, avec employés pilotés par des robots comme chez Amazon par exemple. En fait, cela s’applique à de nombreux secteurs d’activité qui font appel à toujours plus de technologie et de surveillance numérique.

Sont-ce des conditions de travail dignes d’une économie du 21ème siècle

responsable et soucieuse de l’humain ?

Ainsi :

  • Lorsque cadences, surmenages, chantages, lorsque les incitations ressemblent à des brimades et que la surveillance et l’évaluation sont permanentes ;
  • Lorsque les conditions de travail et les pratiques de management servent avant tout, des logiques de profit et de rentabilité (au profit d’un petit nombre mais au détriment de la majorité des humains – pratiques généralisées à tous les secteurs et domaines d’activités) ;

Ne sommes-nous pas en droit de nous demander si ces conditions ne sont pas, par analogies, similaires à celles subies par certains esclaves, notamment ceux dont le maître leur concède le droit de travailler en dehors et en plus de leur service au maitre ? L’idée étant qu’il est plus rentable de ne pas laisser l’esclave en dépendance directe et permanente, (le maître lui concède de quoi survivre )[1].

Concernant la question de la puissance absolue d’un maitre

Dans l’écosystème numérique, la définition du maître est à trouver dans les acteurs hégémoniques du Net, qui maitrisent les infrastructures numériques et les services. Ce sont les plateformes, les fournisseurs de services, à savoir ; GAFAM, NATU (USA) et BATX (Chine) qui concentrent la majorité des utilisateurs de par le monde.

De par leur puissance et leur pouvoir, ces acteurs fixent (et imposent) les règles de l’économie numérique, celles des comportements et des usages de tous les autres acteurs qui les utilisent : organisations publiques et privées, individus, cela en accord avec les gouvernements des pays dont ils sont issus.

Les fournisseurs de services imposent des conditions d’utilisations que les personnes acceptent sans les lire, ou sans même les comprendre[2] afin d’obtenir un service, ce qui ne peut pas relever du consentement éclairé. Nous pouvons dès lors reprendre les propos suivants de JJ. Rousseau :

 

« Je fais avec toi une convention toute à ta charge et toute à mon profit,

que j’observerai tant qu’il me plaira, et que tu observeras tant qu’il me plaira ».

Rousseau, Du contrat social, I, 6.

 

Des sociétés du numérique – et leurs dirigeants – se positionnent comme étant les maîtres du monde … avec la complicité plus ou moins affichée de certains gouvernements, même si la réalisation du rêve libertaire californien pour certains, les inciterait à se passer de l’Etat et du gouvernement. Comme le démontre pour ne citer qu’un exemple, celui de Facebook, entreprise privée, qui outre maitrise les identités numériques, va battre monnaie (crypto monnaie Libra), attributs jusque-là régaliens et relevant de la prérogative des Etats.

Pour étayer la notion de puissance de ces géants du Net rappelons les points suivants :

  • Les Conditions d’utilisation sont imposées par les plateformes de manière unilatérale ;
  • Les utilisateurs acceptent ces conditions sans pouvoir les questionner, ils s’y soumettent volontairement ;
  • Les modèle d’affaire basés sur l’exploitation des données des utilisateurs et sur le « faux gratuit » avec lequel les individus se sont laissés séduire par le côté « divertissant, facile et sans effort » des services proposés ;
  • L’attitude parfois complice des pouvoirs politiques de « laisser faire », imposée par une économie libérale (voire ultra-libérale), par une injonction de croissance économique par l’innovation technologique et le numérique ;
  • La Régulation est faible, voire inexistante. Il y a peu de pénalités et les pénalités sont souvent trop faibles et pas assez dissuasives [3].
  • La capacité des acteurs hégémoniques à annihiler toute concurrence et alternative.

Le colonialisme numérique initié à la fin du siècle passé, a permis l’économie de la donnée. Celle-ci a évoluée en économie de l’attention, en économie des émotions et en économie de la surveillance dont l’efficacité est renforcée par l’Intelligence artificielle. Il s’agit d’un véritable capitalisme de la surveillance. Or comme nous le rappelle Milton Friedmans, l’esclavage est un des fondements historiques du capitalisme[4].

Concernant les conditions de la liberté

Le constat est le suivant : Il existe une récolte des informations à l’insu des usagers, qui sont suivis, tenus en laisse électronique et sous surveillance. La captation des données et leur exploitation sont non transparentes cela concerne les métadonnées liées aux pratiques des personnes et les données générées informatiquement à partir de celles-ci et des contenus livrés par les individus.

Ainsi les pratiques du numérique ont évoluées pour donner lieu à une collecte massive de données (phénomène big data) vers une mise en données du monde et de l’univers, en passant par la quantification de soi, du corps, du métabolisme, des sentiments, des comportements, des goûts, des déplacements, des mouvements, des activités (y compris sexuelles), des achats, des lectures, des sites visités, des documents consultés, etc.

L’Humain devient chose, chose numérisée.

Le marché de la donnée est opaque, que cela soit du fait des places de marchés licites (brockers, …) ou des places de marché illicites (marché noir, Darkweb), et de la cybercriminalité. Cela autorise toutes sortes de dérives, d’usages abusifs, criminels, terroristes et conflictuels de celles-ci.

Les données ont une valeur certaine et les données engrangées depuis deux décennies par les acteurs hégémoniques leur permettent une puissance économique sans précédent et les mettent en position de puissance et de pouvoir, pouvoir d’influencer, y compris des élections.

Cette avance est un atout considérable pour les développement futurs dû à la convergence de l’informatique, des sciences cognitives, de l’électronique et de la biologie. Ainsi l’exploitation des données notamment dans le domaine de l’intelligence artificielle, les autorisent à imposer toujours plus d’informatisation, d’automatisation, de robotisation, de substitution du control humain et de l’humain, par des robots. Ce qui renforce et développe encore plus l’esclavage numérique et démultiplie ses impacts. Par analogie cela peut faire penser au maitre qui se débarrasse de l’esclave devenu trop âgé, pas assez performant – donc obsolète, car il constitue une bouche à nourrir de trop.

Revenons sur la deuxième définition de l’esclave « être humain traité comme une marchandise : que l’on peut acheter, vendre, posséder ».

Dans la mesure ou le double numérique des personnes est tout aussi important, voire plus important que les personnes elles-mêmes, il est possible de considérer, par certains aspects, que le commerce de données personnelles, comme relevant du commerce, du trafic ou de la traite d’esclaves.

Un esclave est considéré comme une propriété : le double numérique, les données appartiennent au maître, l’identité numérique appartient à un fournisseur de service.

Concernant l’illusion d’autonomie et de libre arbitre

Avec Internet, l’illusion est totale, qu’il s’agisse de vérité – avec les fake news, ou qu’il s’agisse d’autonomie et de libre arbitre des personnes. En effet, les choix des utilisateurs sont orientés par les algorithmes conçus et mis en œuvres par des fournisseurs de services, pour servir leurs intérêts. Illusions toutefois largement entretenues par les discours marketing et parfois pseudo philosophiques aux connotations évangélistes, des acteurs hégémoniques du Net.

Ainsi, avec la collecte des données, le profilage des utilisateurs-consommateurs, la personnalisation de services, avec les publicités et propositions pouvant par leur côté répétitif devenir des injonctions à agir, l’autonomie des personnes est théorique.

Le système est conçu pour cliquer sur des liens prédéterminés et pour répondre à des stimuli électroniques conditionnels à la manière des réflexes de Pavlov, dans un temps immédiat.

L’immédiateté ne permet pas de prendre du recul, de vérifier, de penser, d’agir par soi-même en toute connaissance de cause, d’entrainer son libre arbitre (70% des vidéos Youtube visionnées le sont suite à des propositions).

Dans ces conditions comment interpréter les propos[5] de :

  • JJ Rousseau : … « tout homme étant né libre est maître de lui-même, nul ne peut, sous quelques prétextes que ce puisse être, l’assujettir sans son aveu. »… (Rousseau, Du contrat social, IV,2) et ceux de
  • Louis Scutenaire écrivain poète belge du 20ème siècle « L’esclave qui aime sa vie d’esclave a-t-il une vie d’esclave ? » (Louis Scutenaire, Mes inscriptions).

Au travers de ces deux citations se trouve toute l’ambiguïté et la difficulté à définir de manière catégorique les notions d’esclave et d’esclavage numériques. Explorons ces concepts sous l’angle des conditions d’esclavage à l’âge numérique.

Si l’on considère qu’un esclave est une personne soumise à un contrôle tyrannique, à une domination étrangère ou à un gouvernement despotique, je laisse le soin à chacun d’apprécier la notion de contrôle tyrannique, notamment dans le cadre de la surveillance de masse, rendue possible par :

  • La numérisation des moyens de surveillance,
  • Le croisement des données issues de multiples sources capteurs dans les espaces publics (ville, aéroport, centre commercial, hôpital, moyens de transport) et dans les espaces privés (voiture, domicile,…) mais aussi ;
  • La dématérialisation des moyens de paiement (la fin de l’argent liquide).

Cela bien sûr, sans évoquer le cas de populations soumises au « contrôle social » par leur gouvernement, rendu possible par le numérique.

Véritable dystopie technologique dont nous préférons voir le côté divertissant dans des films (Minority report, série Black mirror, …), sans pour autant nous opposer à l’extension du champ de l’exploitation des données, y compris des données biométriques, et de la perte insidieuse des libertés que cela permet.

Pour ce qui est de la domination étrangère, si l’on est suisse ou européen, inutile de s’y attarder car les champions du numérique ne sont ni suisses, ni européens, comme le montre l’origine des acteurs hégémoniques du Net et comme le démontre une fois de plus, la bataille pour la 5G que se livrent les USA et la Chine en ce moment. La domination étrangère en matière d’infrastructures numériques, comme notre dépendance à celles-ci sont réelles.

Osons trois questions concernant la dépendance

  1. N’avons-nous pas eu un comportement servile d’accepter sans questionner, ni même lire les conditions générales des fournisseurs de réseaux sociaux notamment ?
  2. Ne nous sommes-nous pas soumis au dictat de l’innovation technologique, du jeunisme dont le numérique est porteur, de manière docile et servile ?
  3. N’avons-nous pas fait preuve d’une âme d’esclave, pour nous être rendu esclave de nos écrans ?

De manière historique, seuls les maitres disposent d’une sonnette pour appeler esclaves, prisonniers ou domestiques et de moyens pour les contraindre. Désormais avec le numérique, tout un chacun peut être en situation de réaction à des stimuli électroniques et alertes qu’émettent les applications pour faire interagir les utilisateurs avec la chose électronique et informatique en toute soumission, c’est à dire en esclave.

Ce qui est perfide, voire pervers, et donc difficile à combattre, est que certaines de ces personnes se sont mises entièrement en état de dépendance presque par amour : elles sont devenues des robots de chair et de sang, des services, des outils de quantification de soi et d’auto – surveillance, par une mise en scène – et en ligne – de chaque moment de leur vie, se faisant, elles se chosifient.

Ce qui va dans le sens du courant trans-humaniste et des promoteurs de certaines applications de l’intelligence artificielle, qui considèrent, les individus, comme des systèmes d’information à améliorer, qui traitent les personnes, leurs gestes, leurs émotions, leurs sentiments et leur corps, comme des sources du minerai informationnel. Personnes pilotées, contrôlées et reliées à un fournisseur par un objet connecté. De par ses pratiques numériques, la personne n’a plus aucun moment libre, ses usages du numérique le rendent esclave et font de lui un esclave !

Les bénéfices tirés de l’assujettissement d’un grand nombre (plus de la moitié de la population de la planète[6]) par quelques acteurs super puissants (qui se compte sur les doigts des deux mains) sont essentiellement économique et politique.

Les « esclaves numériques » sont sujets et objets d’un pouvoir.

L’expansion numérique suit la même logique que celle de l’expansion coloniale, de la conquête des territoires et des matières premières (les données). Il est dès lors pas surprenant que les premiers acteurs hégémoniques du Net soient issus de la culture anglo-saxonne, de tradition esclavagiste.

L’ubérisation de la société, et des travailleurs soit disant « indépendants », mais qui n’ont pas d’autre choix que de se mettre au service de plateformes numériques et de travailler un nombre d’heures considérables pour un salaire faible, sans protection sociale, et sous surveillance numérique, n’est pas sans analogie avec les conditions de servage et des serfs du moyen-âge. L’analogie de cette situation avec celle où des paysans ruinés font l’échange de leur liberté pour survivre est adéquate.

Les difficultés économiques actuellement rencontrées, sont essentiellement liées aux conséquences de la globalisation et de la crise financière de 2008. Les conditions de marché des plateformes étaient alors réunies pour faire accepter de nouveaux types d’inféodation à des plateformes, par les travailleurs –esclaves – tâcheron et les utilisateurs-esclaves. Ce faisant ces derniers ne font que renforcer la précarité des travailleurs, déliter le collectif et augmenter le pouvoir des plateformes. Pouvoir, par ailleurs augmenté, par des pratiques d’optimisation fiscale.

Il pourrait être tentant de comparer des « indépendants » travaillant pour une plateforme (chauffeur Uber et ses diverses déclinaisons) à des vaincus « économiques » non plus massacrés mais utilisés comme bien productif, il s’agirait alors d’esclaves qui achètent leur vie au prix de leur liberté.

C’est en préférant l’existence à la liberté que l’esclave est esclave. Ce contrat de soumission et de sujétion existe du fait de l’intérêt des deux parties, mais ne peut pas être considéré comme un « accord équitable » permettant la légitimation de l’esclavage. L’esclavage est une forme d’expression et perpétuation d’un pur rapport de force qui ne lui confère aucune légitimité[7].

L’ère du numérique est en passe de devenir celle de l’homo numericus sclavus

Quelques interrogations d’ordre moral, éthique et religieux

Est-ce que les pratiques numériques, qui comme nous venons le voir, peuvent dans certaines conditions, être considérées comme de nouvelles formes de l’esclavage moderne, sont légales ou condamnables ? La réponse penche vers leur licité car les divers degrés d’asservissement, sont rendus possibles par des vides juridiques, des lois inadaptées et appliquées ou encore par un défaut de régulation et de volonté politique.

Souhaitons-nous que l’ère numérique soit synonyme de société à esclaves, avec des esclaves qui éventuellement, chérissent leur maître ?

Souhaitons-nous que la société de l’information soit une société esclavagiste ?

Les discours sur l’éthique dont peut faire l’objet la Technologie et en particulier l’intelligence artificielle, ne peuvent répondre correctement aux besoins :

  • De ne pas laisser les acteurs les plus forts imposer leur vision et contraindre le reste du monde à y souscrire.
  • Une économie qui favorisent des modes de production esclavagiste et qui contribuent à maintenir en situation d’asservissement les populations.
  • Une économie où les nouveaux modes de travail ressemblent à des formes l’esclavage et où les modes de consommation renforcent la dépendance.

Slogans ou auto-déclarations « éthiques » des acteurs hégémoniques, ne peuvent faire oublier, ni l’importance de la maitrise des données issues des utilisateurs et des organisations, ni le fait que la dépendance numérique donne du pouvoir à celui qui soumet et que ce pouvoir est augmenté par le nombre de dépendants.

La fonction principale de l’esclavage est de renforcer le pouvoir des maitres, ces maîtres qui diffusent à l’infini leur slogans «  Tech for good » et discours sur l’ éthique, en même temps qu’ils déploient des moyens considérables en actions d’influence à tous les niveaux : gouvernements, instances internationales et société civile.

L’éthique telle qu’appréhendée par la majorité des acteurs de la communauté internationale est comparable au « Code noir » de 1635, édit touchant la police des Iles de l’Amérique française visant en partie à adoucir la condition des esclaves, basé sur la nécessité économique de les protéger à minima[8], sans pour autant adresser le problème de fond qu’est l’esclavage.

Lorsque que des personnes acceptent de fournir des données, d’être surveillés, profilés pour raisons économiques, pour accéder à des services dits gratuits, il s’agit d’un esclavage par endettement. Utiliser certains services, c’est accepter indirectement de travailler (éventuellement toute sa vie), au bénéfice de son créancier sans pouvoir racheter sa dette dès lors que la personne est en situation de dépendance. Cela peut être considéré comme étant équivalent à une vente volontaire de soi.

Est-ce que les possibilités de rachat de l’esclave à son maitre peuvent se transposer par la possibilité ou non du rachat de ses données ?

La techno-croisade de certains, est un rouleau compresseur qui empêche l’émergence de nouveaux possibles technologiques et d’inventer un monde meilleur, plus juste, plus équitable, plus bienveillant et plus respectueux. Le positionnement quasi religieux des promoteurs de la fuite en avant technologique, avec une technologie toujours plus omniprésente, invisible et intrusive, ne peut pas résoudre tous les problèmes complexes du monde.

L’illusion de la fin de la mort par la technologie, pour éviter de se confronter au scandale de la mort, qui est au cœur et le principe de notre condition humaine. La technologie devient la voie de moindre résistance pour inventer une renaissance et se substituer aux croyances religieuses, rites et rituels de la mort qui existent dans différentes civilisations.

« Ce qu’il y a de radicalement nouveau avec le numérique et le cyberespace, c’est la capacité de trouver les moyens de répondre autrement aux interrogations profondes de l’Homme »[9], se plaisait à rappeler le philosophe René Berger que j’ai eu la chance et le bonheur de connaitre.

Cela est sans doute, pour combler un certain vide existentiel, pour répondre à la perte de sens de la société de consommation et pour affronter la béance de la mort, que certains ont foi dans le numérique et deviennent aveugles à ces conditions de production et en ignorent les dimensions sociales, économiques et politiques qui posent problèmes.

GAFAM, NATU et BATX sont les noms des inquisiteurs du 21ème siècles. Le pouvoir technologique est en passe de devenir un pouvoir démiurgique à la recherche d’une techno transcendance.

A nous, humains avertis, d’accompagner au mieux les possibles et merveilleuses métamorphoses qu’autorisent la technologie et l’imaginaire, dans un esprit humaniste au service du bien commun et pour un plus grand nombre.

Ne laissons pas Internet devenir le terrain élu du marché mondial, et de la surveillance totale, ni l’instrument de la marchandisation des données, permettant l’anéantissement de ce qui fait notre nature humaine. Car dès lors, nous n’aurions plus à lutter contre le scandale de la mort mais contre la béance du « trou noir » de l’univers numérique. C’est sans doute pour cela aussi, que les discours « religieux » des vendeurs de technologies chantent aux oreilles des cybermoutons avides de sens, à la recherche d’un sacré renouvelé.

 

[1] A. Testart, L’institution de l’esclavage, une approche mondiale. Bibliothèque des sciences humaines, Gallimard, édition 2018, p.188.

[2] Les conditions sont rédigées pour être illisibles et pour masquer la finalité réelle des services.

[3] Punissable par la Loi par des amendes faibles, équivaut à ce que des pratiques illégales deviennent licites pour les riches !

[4] http://evonomics.com/milton-friedmans-economic-racism/

[6] Utilisateurs d’Internet en 2019 : Sur 7,676 milliards d’humains, on dénombre :

5,112 milliards d’utilisateurs de téléphones (67%) ; 4,388 milliards d’internautes (57%) ;3,484 milliards d’utilisateurs des réseaux sociaux (45%) ; 3,256 milliards d’utilisateurs des réseaux sociaux sur mobile (42%). Source : https://www.blogdumoderateur.com/internet-reseaux-sociaux-2019/

[7] Dictionnaire culturel en langue française, sous la direction d’Alain Rey, Le Robert, tome 2, p.634.

[8] Ibid., p.635.

[9] R. Berger, S. Ghernaouti, « Technocivilisation, pour une philosophie du numérique » Focus Science, PPUR, 2010, p.47.

Quelle cybersécurité pour protéger les enfants en ligne ?

Les jeunes et le numérique

Ils sont de plus en plus jeunes et nombreux à être connectés à Internet. L’enquête suisse Eu Kids Online, présenté à l’ouverture du 4ème forum national jeunes et médias qui s’est déroulé à Berne le 23 mai 2019, le confirme. Les risques d’être exposé à des contenus inappropriés ou encore à être en contact avec des personnes indésirables pour ne citer que deux exemples, sont bien réels. Ils affectent près d’un quart d’enfants d’une dizaine d’années et la grande majorité des jeunes d’une quinzaine d’années.

Pour un jeune, le téléphone intelligent, la tablette, l’ordinateur, constituent des éléments qui permettent l’autonomie, la « socialisation » et le divertissement. Ce sont les parents, qui souvent pour faire plaisir, les offrent. Un cadeau qui peut se transformer en cadeau empoisonné s’ils sont offert trop tôt et sans accompagnement et encadrement.

Le marché du numérique que représentent les jeunes, ceux nés après l’advenue des réseaux sociaux, son potentiel d’exploitation est considérable. Tous les services en ligne sont basés sur l’exploitation des données et incitent à être connecté en permanence. En matière de transformation numérique de la société, l’ultra libéralisme n’est pas forcément compatible avec la protection des enfants.

L’économie de la donnée, de l’attention, de la traçabilité s’est progressivement développée depuis plus de 20 ans, elle est un moteur du développement économique. Les avancées technologiques (nano technologies, sciences cognitives et computationnelles) sont passées du stade expérimental à celui de l’industrialisation et de leur adoption massive. Elles ont pénétré tous les domaines de la vie professionnelle et privée. Actuellement, cela est favorisé des objets connectés, des capteurs en tous lieux, du haut débit, de la quantification de soi, du corps, du mouvement, des émotions, des goûts, des centres d’intérêts et par le déploiement de la 5G.

Sous couvert de ludisme, de divertissement ou de performance, la population s’est habituée à donner sa géolocalisation, des notes, à surveiller, à suivre, à se prendre en photos, à photographier chaque instant de sa vie et à les mettent en ligne. Les personnes ont laissé leurs données biométriques et d’identification à des acteurs privés (empreintes digitales pour déverrouiller un téléphone, reconnaissance faciale pour marquer des photos, pour accéder à des services, etc.). Des données biométriques permettent de réaliser des pièces d’identité et des documents de voyage, ou encore d’autoriser des entrées dans divers pays. Captées dans des aéroports, elles sont utilisées à des fins d’identification et de vérification des droits d’accès.

 

Des questions complexes

Protection des données et consentement éclairé

Lorsqu’il devient habituel de tout mettre en ligne, dès lors comment assurer la protection des données des enfants et des jeunes et par extension comment protéger la jeunesse des usages abusifs, détournés ou criminels des données ?

Comment faire prendre conscience à des jeunes des problèmes à plus long termes que peut engendrer la perte de contrôle de leurs données alors que la majorité des adultes n’en ont pas conscience ?

Comment un enfant peut-il donner son consentement explicite et éclairé pour l’usage de services numériques, alors que les adultes ne sont pas en mesure de le faire ?

Influence et désinformation

Avec le numérique, la pénétration de la sphère économique, à l’école, dans la chambre de l’enfant et jusque dans sa poche est une réalité qui prend de plus en plus d’ampleur notamment au travers des influenceurs présents sur le web qui promeuvent une vision du monde déformée en fonction des intérêts qu’ils défendent et des sociétés qui les sponsorisent.

Le risque de conformité, de normalisation des comportements, des apparences, d’influence est important. Cela est souvent accompagné par une hypersexualisation des jeunes, à un âge de plus en plus tôt, engendrant des effets négatifs immédiats et sur le long terme. Par ailleurs, la beauté, le maquillage, l’habillement sont généralement au centre des intérêts des influenceurs. Poussé à l’extrême, des incitations fortes à ressembler à un modèle unique, à une pensée unique peut conduire au formatage de la pensée et des comportements, ne laissant plus de place au différent et à la tolérance. Cela pourrait s’apparenter à une forme d’eugénisme ….

Comment faire société alors que chacun dès son plus jeune âge est confronté à des sources d’information qui lui sont présentées en fonction de son profil et des intérêts économiques et politiques des entités qui maitrisent les accès, les contenus, les échanges de l’Internet ?

Ce qui fait société, est de pouvoir disposer d’une base commune de compréhension de ce qu’est la société et non une image de celle-ci produite sur des critères propres aux fournisseurs de services et en fonction des protagonistes des échanges dans un monde virtuel et dématérialisé. Monde dans lequel la famille virtuelle est plus importante que la famille réelle, ce qui laisse la porte ouverte à toutes les possibilités d’endoctrinement, de radicalisation, de manipulations et de désinformation.

De quoi, de qui faut-il protéger les enfants et les plus jeunes ?

 S’agit-il de les protéger par rapport à des adultes, par rapport à d’autres jeunes ou encore par rapport au marché ?

Les dérives liées aux mésusages du numérique et des données peuvent porter atteinte à l’intégrité morale et physique des personnes et à leur bien-être. Il s’agit de risques individuels pouvant engendrer des drames personnels et familiaux et d’un risque collectif pouvant aller, jusqu’à l’effondrement de la société.

Comment encadrer les cyberpratiques des jeunes, qui en a la responsabilité, qui en a les moyens ?

Comment peut-on réguler les fournisseurs de services qui s’adressent à un marché constitué d’enfants habitués à être en ligne par des jeux interactifs et en relations interpersonnelles médiées par des technologies ?

Comment empêcher la captation abusive des données ? Comment protéger les données collectées à l’insu des utilisateurs, celles générées par traitement informatique et croisement des fichiers et des bases de données ?

Comment interdire la collecte de données sinon, en modifiant les modèle d’affaires des entreprises, en changeant de paradigme de l’économie du numérique ? Sommes-nous prêts pour cela ?

Comment préserver un espace de liberté, un espace d’expression, un espace de création, un espace de développement personnel tel qu’Internet fut envisagé durant l’après-guerre du Vietnam, dans l’esprit « Love power – Flower power » porté notamment par le mouvement hippi ?

Comment penser que les critères techniques de la cybersécurité que sont la disponibilité, l’intégrité, la confidentialité puissent répondre de manière adaptée aux besoins de protection des enfants, de l’enfance et du tout numérique ?

 

Le RGPD au secours du « Security by design » et de la « Privacy by default »

Le règlement européen sur la protection des données (RGPD) contribue à une meilleure prise en compte des besoins de protection des données à caractère personnel. En effet, la responsabilisation des entreprises et de ses dirigeants en leur infligeant des amendes et des pénalités fortes lors du non-respect du RGPD sont des incitations à ce que les acteurs du numérique mettent réellement en œuvre des services adaptés aux besoins de protection. Des directives concernant le contrôle de l’âge d’accès, (interdiction aux moins de 13 ans, le non usage commercial des données des jeunes, l’interdiction de leur ciblage publicitaires par exemples) permettent d’imposer des mesures à intégrer dans des services. Cela peut contribuer à la protection de la jeunesse. En Suisse, renforcer les amendes et la responsabilité des personnes qui enfreignent la loi (notamment la loi fédérale sur la protection des données (LPD)) serait certainement un levier efficace.

Les initiatives des plateformes pour mieux contrôler et surveiller les usagers, est sans doute un pas pour redonner un peu de contrôle à l’utilisateur. Mais ce n’est pas suffisant au regard de l’économie globale de la surveillance qui se met en place à l’échelle mondiale. La gestion du temps, permet la quantification de l’auto-surveillance et son exploitation à l’insu de l’usager. Il est primordial de se poser la question de savoir qui surveille le surveillant qui contrôle ceux qui contrôlent, sur quelle base légale et sur quels critères ? Dans ce domaine, comme dans beaucoup d’autres, il est hors de question de laisser uniquement dans les mains des acteurs privés, de déterminer seuls, ce qui est bon ou non pour les enfants. Cela s’applique également aux problématiques de la censure, du contrôle d’accès et des flux et soulève la question de la neutralité du Net.

 

Santé et bien-être

On ne peut protéger que ce que l’on maitrise, dès lors comment reprendre du contrôle sur les usages lorsque des personnes ont développés des comportements addictifs au numérique ?

Comment reprendre le contrôle des données « perdues » offertes délibérément aux fournisseurs de services, comme celles relatives à l’ADN des personnes transmises à des sites comme My Heritage, Ancestry ou 23andMe. 92 millions de comptes utilisateurs de l’entreprise israélienne My Heritage, ont fait l’objet d’un piratage informatique avec vol de données en juin 2018. En 2013, un chercheur mis en évidence qu’il était possible de retrouver l’identité des personnes et de lever leur anonymat dans des bases de données liées à leur ADN (comme celles de 23andMe ou de Ancestry par exemples). Sans compter le fait que les données sont généralement exploitées à des fins commerciales et revendues et que les forces de l’ordre peuvent y avoir accès pour identifier et rechercher des suspects, comme cela est déjà le cas aux Etats-Unis d’Amérique.

Comment reprendre le contrôle des données « invisibles » laissées par les traces numériques des usages électroniques ?

Par ailleurs, omettre de citer les potentiels problèmes de santé à moyen ou long terme, du fait d’une trop grande exposition aux ondes électromagnétiques ou consommation du numérique qui peuvent affecter la santé des personnes et leur développement psycho moteur (posture, dos, doigts, vision, troubles du sommeil, comportementaux, addiction, etc.) relèverait de l’aveuglement collectif. Pour cela, la protection des données ou le RGPD ou des mesures techniques de sécurité informatique sont de peu d’utilité.

Ainsi, pour vraiment contribuer à protéger la jeunesse, il est nécessaire de disposer d’un ensemble de mesures cohérentes, complémentaires, coordonnées et intégrées dans une démarche holistique de prévention des risques et de protection de l’enfance.

 

Refusons la digitalisation de l’enfance

Lorsque l’écran, l’assistant numérique, l’algorithme et l’écran se substituent à la personne de confiance, à l’éducateur, au parent, à le (la) baby sitter, comment reprendre un peu de contrôle et de légitimité ?

Comment instaurer du lien et de la confiance, quand cela a été relégué à une technologie de plus en plus performante et omniprésente ?

Interrogeons-nous sur la pertinence et l’intérêt pour l’enfant des solutions clés en main apportées par des entreprises hégémoniques du Net comme celles qui proposent des enceintes connectées à but pédagogique.

La tentation est grande de laisser faire des acteurs privés, d’opter pour des solutions de facilité et de se décharger de notre responsabilité d’adulte. Pour le secteur public, la tentation est grande de laisser faire le secteur privé dans les écoles pour la formation au numérique et la transformation numérique de l’enseignement. Il est vrai que le lobby des GAFAM et des investisseurs de l’EdTech est très bien organisé, très présent et très insistant. Les sirènes du faux « gratuit » chantent à l’oreille des dirigeants.

 

Des propositions concrètes

L’éventuelle bonne foi des fournisseurs de service ne suffit pas. Leurs paroles s’opposent à la réalité des faits, c’est à dire la dépossession de nos données et celle de nos vies numériques. Il nous appartient d’être exigeants et de faire en sorte que les fournisseurs de services soient au service de nos besoins et de ceux de la société et non le contraire.

A nous d’apprendre à nos enfants que pour exister il n’est point besoin de laisser des traces numériques, des commentaires ou de cliquer à l’infini …

La consommation énergétique de l’informatique, les gaz à effet de serre, le refroidissement des centres de données, la fabrication des équipements électroniques ainsi que les déchets informatiques, coûtent cher à la planète et au climat. Pourquoi ne pas tirer parti de l’élan de la jeunesse pour la défense de l’environnement, pour lui apprendre que cela passe également par une décroissante numérique, par une écologie et une économie du numérique qui respectent l’environnement ?

Trier et minimiser ses données numériques et déchets électroniques est tout aussi fondamental pour l’écologie que celui concernant les déchets ménagers.

Ensemble, apprenons-leurs à créer et à utiliser des technologies de traitement de l’information et de la communication qui respectent les droits humains fondamentaux, à vivre leur enfance et leur jeunesse à l’ère numérique. Apprendre à décoder ce qui se passe derrière l’écran et au-delà de la virtualité des échanges et tout aussi important que d’apprendre à coder ou à utiliser des produits.

« Cadrer et accompagner les écrans à tout âge, pour apprendre à s’en servir, et à s’en passer » c’est ce défend le pédopsychiatre Serge Tisseron. A chaque âge sa technologie, son service, son usage, sa durée. Une technologie, en complémentarité et non en substitution de toutes les activités jusque-là traditionnelles des enfants, pour qu’ils grandissent sereinement et deviennent des adultes formidables.

Cette approche du numérique demande une vision de société, une volonté politique, un engagement de tous les acteurs, une culture basée sur des valeurs partagées, de la bienveillance et de la discipline ainsi qu’une éducation aux médias et au numérique, non seulement de la jeunesse mais de l’ensemble de la population.

 

« Un homme ça s’empêche» (Albert Camus)

Le numérique modifie les rapports entre humains. Il introduit une réalité mixte, une réalité électronique et biologique, à la fois virtuelle et réelle.

Le numérique nous façonne au-delà du réel. Le réel peut avoir de multiples représentations numériques, modifiées informatiquement et être une réalité virtuelle plus réelle que celle issue du monde physique.

Avec le prisme du numérique et des acteurs qui le maitrisent, le réel devient modifiable à l’infini. Cela est porté d’une part, par un discours mettant en avant les faits alternatifs, la post-vérité et d’autre part, par des technologies exploitant les données et les avancées de l’intelligence artificielle.

L’enjeu du siècle consiste désormais à se réapproprier le réel, à développer des technologies et à adopter des pratiques qui ont du sens pour le développement personnel et le développement économique de la société dans laquelle nous vivons.

Être humain avec et au travers de la technologie, c’est s’approprier les propos qu’Albert Camus prête à un protagoniste de son livre  Le Premier Homme : « Un homme ça s’empêche», afin de nous inciter à réfléchir et à apporter des réponses convaincantes aux questions de responsabilité et de liberté, pour faire face à l’envahisse

Contrer Fake news et les Deep fakes par des mesures pragmatiques

Désinformation et culture du faux

La désinformation, n’est pas une innovation technologique, en revanche les technologies du numérique la favorise. La création des contenus de toute nature est également favorisée par l’usage des technologies du numérique qui est mise à la portée de chaque internaute. Les facilités de mettre en relation, de poster, de cliquer, de noter, de suivre, de transmettre, permettent une diffusion quasi gratuite et instantanée de tous les contenus.

Les fausses informations (Fake news) sont de vraies – fausses informations, crées explicitement pour manipuler l’opinion des personnes à qui elles sont destinées. Il est désormais possible, en utilisant les techniques d’apprentissage profond de l’intelligence artificielle, de créer de fausses- vraies informations (Deep fake). Cela permet de modifier, de remplacer des photos, de substituer et permuter tout ou partie d’images ou de contenus sonores, de fabriquer de nouveaux contenus sur la base de modèle à imiter, etc. Le faux – vrai discours de Barak Obama en témoigne comme d’ailleurs la vidéo du président argentin Mauricio Macri, transformé en Hitler ou celui d’Angela Merkel présentée sous les traits de Donald Trump par exemple.

Depuis 2017, le phénomène de trucage de vidéo, initialement appliqué pour mettre en scène des personnalités sur des vidéos pornographiques contrefaites, prend de l’ampleur et se décline pour alimenter la satire mais surtout la manipulation à des fins politiques et de déstabilisation. Cela inquiète les pouvoirs publics et questionne le rôle et les responsabilités de ces derniers mais aussi des fournisseurs de services et intermédiaires techniques, comme celles des internautes.

Bien que le trucage d’image existe depuis longtemps, notamment facilité par des logiciels tels que Photoshop par exemple et bien que cela soit connu, ces images « embellies » sont toujours trompeuses et distordent la réalité.

La modification, « l’amélioration » d’images sont souvent réalisées pour mettre en valeur des produits à des fins commerciales et relever d’une démarche publicitaire, qui est censée être légalement cadrée. Toutefois, la prolifération d’images retouchées contribue à un certain formatage de la pensée et de modes d’action par création de nouveaux standards esthétiques. Le nombre s’imposant de facto comme référence.

Légitimé par une démarche artistique, le cinéma recourt aux trucages, aux effets spéciaux ou encore à des cascadeurs professionnels. L’illusion est alors légale puisque « c’est du cinéma ! ». Les trucages sont identifiables, explicables et expliqués.

Les fake news entretiennent d’une certaine manière des rapports à la réalité similaires à ceux du roman. Le titre de la nouvelle « Le mentir-vrai » de Louis Aragon parue en 1964, résume à lui seul la situation. Le romanesque est, en brouillant les frontières au réel, à la fois invention et non-invention, imaginaire et fragment de réalité.

Avec Internet, les fake news et les deep fakes, l’illusion de vérité est totale, avec pour l’utilisateur, l’impossibilité de différencier le vrai du faux. Le « vrai » est fabriqué par codage informatique, sans pour autant être basé sur des faits réels et vérifiables. La réalité n’a pas besoin d’exister car seul compte l’existence de contenus numériques qui sont diffusés, qui sont vus, écoutés et qui sont likés ! Les fake news sont par excellence devenues de nouvelles armes au service de la propagande, de la déstabilisation, du harcèlement ou encore de la diffamation.

 

L’important, c’est le clic non la véracité

Dès lors que les modèles économiques des fournisseurs de service des plateformes de mise en relation sont basés sur la connectivité, l’interaction des usagers, leur temps d’attention, sur la consommation de contenus, l’exploitation des données et des méta-données, sur la publicité en ligne, les fakes news sont comme n’importe quels contenus des vecteurs de rentabilité. Que les contenus soient satiriques ou diffamatoires, préjudiciables à l’intégrité physique et morale des personnes, drôles ou pas, en fait qu’ils soient vrais ou faux importe peu, pourvus qu’ils soient diffusés et « vus » !

Avec les réseaux sociaux, les convictions personnelles peuvent être partagées à l’infini et peuvent à force, prendre l’apparence de faits. Poster, c’est exister ! Il y a ceux qui produisent des contenus, ceux qui les consomment. Il y a ceux qui transmettent délibérément ou inconsciemment des fausses nouvelles, ceux qui retransmettre, qui aiment ou qui démentent (mais ce faisant contribuent à répéter), ceux qui sont rétribués pour le faire et ceux qui ne le sont pas… La viralité sur Internet est un facteur de succès !

 

L’ère de l’opinion et de la post-vérité

Il semble que l’ère de l’information telle que promue au début du Web il y tout juste une trentaine d’années se soit muée en celle de l’opinion, renforcée de manière concomitante par l’ère de la post-vérité. Souhaite-t-on un web amplificateur d’opinions ?

Une contre-vérité est un mensonge, une post-vérité est au-delà du mensonge. C’est la capacité de dire n’importe quoi – sans limite, sans fondement réel basé sur des faits objectivables et vérifiables. Avec des faits qualifiés désormais d’alternatifs, en fonction des circonstances, nul besoin est de mentir, de faire semblant. Il suffit de les créer et de les faire exister sur Internet, pour modeler l’opinion publique, créer des émotions et des opinions. Lorsque le réel est un problème pour certains, ces derniers n’hésitent pas à le modifier au travers du numérique. Rumeurs et anonymat sont les piliers de la post-vérité. La réalité des contenus est confondue avec l’existence des contenus. Sans compter les divers trolls et robots de discussion qui industrialisent la diffusion de contenus.

Il semble qu’en ayant perdu nos données personnelles et le goût de l’intimité et du respect de la vie privée nous ayons également renoncé au respect de la vérité ! Cela est sans doute lié « au gratuit » et au sentiment d’impunité que procure le fait de pouvoir communiquer à distance, caché derrière un écran, caché par des intermédiaires techniques, de possibles fausses identités, d’identités usurpées et l’anonymat. Ce qui par ailleurs donne également plus de pouvoir et de capacités à certains pour harceler et diffuser des contenus violents.

 

Des mesures pour renforcer la confiance

 Les faussaires ont toujours existé, il suffit pour s’en convaincre de penser aux fabricants de faux billets pour lesquels des solutions techniques ont été apportées pour rendre la fabrication de faux plus difficile et leur identification plus facile. Des mesures complémentaires relevant du droit et de son application, en matière de justice et police, ont également été développées pour mieux maitriser ce type de délits et pénaliser leurs auteurs.

De manière analogue, si l’on ne peut empêcher totalement la fabrication de fake news et de deep fake, des incitations à ne pas les générer, les diffuser comme des solutions pour les détecter, peuvent exister. Ainsi par exemple il peut exister différents types de mesures. Sans vouloir être exhaustif, en voici quelques-unes structurées autour de quatre axes:

Mesures relevant de l’éducation

  • Sensibilisation et éducation aux médias de la population. Développement de l’esprit critique des personnes, de la compréhension des notions de liberté d’expression et de protection des droits humains fondamentaux.
  • Compréhension des risques et des conséquences liées à la désinformation.
  • Apprendre à identifier qui produit une information (une désinformation), pour quelle finalité et quels bénéfices.
  • Apprentissage à décoder les images, les vidéos, leurs méta-données, à vérifier leur origine, à rechercher « leurs semblables », à fabriquer des deep fakes,…
  • Maitriser les différents niveaux, degrés de lecture d’un contenu.
  • Réapprendre que pour exister il n’est pas forcément nécessaire de laisser des traces électroniques, des commentaires, de rediffuser des opinons, etc. et que les convictions ne sont pas des faits.

Mesures d’ordre technique

  • Mises-en-œuvre de mécanismes cryptographiques. Les contenus sensibles, notamment lors de périodes électorales, devraient être signés par des techniques cryptographiques de chiffrement des données qui assureraient leur authenticité et leur intégrité (notion de marquage de documents). Des solutions techniques existent déjà !
  • Des outils relevant de l’informatique forensique appliquées aux vidéos devraient être largement disponibles pour permettent de mieux détecter des faux, notamment la manipulation des visages et de la voix.
  • Disposer d’outils de détection et d’identification des fake news. Le problème majeur est de savoir qui est habilité à distinguer et à qualifier de vrai ou de faux un contenu, sans que cela s’apparente à une nouvelle forme de censure.
  • Limiter la visibilité des sites, des comptes à l’origine de fake news, les bloquer.
  • Être en mesure d’identifier l’origine, l’auteur de contenus.

Mesures incitatives, économiques et organisationnelles

  • Valoriser la recherche et la dénonciation de « faux » (mettre en place des incitations (de type « bug bounty »), des processus et des structures organisationnelles qui le permettent (agence de notification des faux),…). Disposer de procédures et moyens permettant de dénoncer des fake news (plateforme, centrale d’annonce et d’enregistrement), au niveau national et mettre en réseaux tous les centres de ce type au niveau européen, voire international.
  • Favoriser le dialogue entre les acteurs public et privés quant à la responsabilité des contenus (création, mise à disposition, destruction).
  • Tarir les ressources publicitaires des comptes qui contribuent à la diffusion de fake news.
  • Identifier les publicités à caractère politique.
  • Offrir aux citoyens des moyens complémentaires pour prendre des décisions en toute connaissance de cause.
  • Soutenir la liberté de la presse et disposer de médias et de compétences de vérification de faits indépendants.
  • Développer des instruments de réponses au fake news.

Mesures règlementaires et juridiques

  • Des référentiels de bonnes pratiques, des règlementations et des lois peuvent exister pour mettre des limites aux comportements abusifs liés à la désinformation et à la manipulation de l’information. Il existe depuis septembre 2018, un Code de pratique relatif à la désinformation énoncé par la Commission européenne. Un plan d’action contre la désinformation a été adopté pour renforcer la coopération entre les États membres et les institutions de l’Union. En France, une Loi sur la manipulation de l’information en période électorale existe depuis décembre 2018.
  • Doter les pays de mesures qui permettent de sanctionner l’utilisation illégale de données à caractère personnel pour influencer délibérément le résultat des élections.
  • Instaurer une obligation de transparence envers les plates-formes numériques pour tout ce qui concerne des contenus sponsorisés (cela comprend notamment le ciblage publicitaire des personnes à des fins politiques).

 

Quelques perspectives

Dès lors que les électeurs et les citoyens sont considérés comme des consommateurs, gérés comme le sont des clients, que les campagnes électorales ressemblent plus à une campagne de commercialisation de la vie politique et de celle des politiciens, il n’est pas surprenant qu’il existe de la publicité politique en ligne et toutes sortes de mécanismes de manipulations de l’opinion. Il reste à trouver comment règlementer, comment éduquer les individus pour qu’ils exigent de ne pas être restreints à des rôles de consommateurs non éclairés, de ne pas être considérés comme des robots de chair et de sang exploitables à l’infini.

Pour faire face au règne de la défiance et du mensonge, osons donner le goût de la recherche de la vérité, de celle qui relève d’une quête philosophique, voire spirituelle. Elle demande du courage, de la connaissance, de la réflexion, de l’effort, du temps long… C’est une tâche complexe qui s’appuie sur la diversité des sources et des acteurs, sur la liberté et la diversité, non sur l’unification et l’uniformisation de l’information.

 

 

 

 

 

 

Fuites de données, comptes piratés, mots de passes dans la nature

Un éternel recommencement

La mode est un éternellement recommencement, le piratage informatique et la fuite de données aussi. L’annonce faite en janvier 2019 par Troy Hunt, expert sécurité, directeur régional de Microsoft Australie, via son site d’information Have I Been Pwned (HIBP) (“j’ai été mis en gage” – j’ai été dépossédé de mes données) en témoigne. Le site répertorie les principales brèches de sécurité et fuites de données pour aider les personnes à identifier si elles en ont été victimes ou non et pour faire des recommandations (y compris en faveur des solutions Microsoft).

Des collections particulières

Cette gigantesque fuite de données communiquée sous le nom de Collection # 1 résulte de nombreux piratages (environ 12 000 dont certains remontent à plusieurs années) et concernerait 2,7 milliards d’identifiants, près de 773 millions d’adresses distinctes et plus de 21 millions de mots de passe. De nouvelles fuites de données (Collection # 2 à 5) ont été révélées dans la foulée et correspondrait à 2,2 milliards d’adresses email et de mots de passe associés provenant de vols massifs de données sur des plateformes de fournisseurs de services comme par exemple en 2016 Yahoo (plus de 500 millions de comptes), Linkedn (117 millions) ou encore Dropbox (68 millions). Le nombre de comptes utilisateurs piratés chez leur fournisseurs se compte généralement en millions (500 millions pour les hôtels Marriott, 92 millions pour la plateforme de généalogie et de test ADN  MyHeritage en 2018, 57 millions pour Uber et 143 millions pour l’agence de crédit Equifax  en 2017, 412,2 millions pour le site de mise en relation Adult Friend Finder en 2016, 145 millions pour Ebay, 76 millions pour JP Morgan Chase en 2014 pour ne donner que quelques exemples).

Une collection est une accumulation d’objets ayant un intérêt, une valeur. La valeur de ces collections n’est pas liée à la rareté de l’information mais à son grand nombre et aux possibilités d’exploitation qu’elle autorise.

Applications concrètes du vol massifs de données

Ainsi, l’usurpation des paramètres de connexion d’un individu, permet de réaliser des actions ciblées de phishing et d’ingénierie sociale afin de manipuler une personne, la leurrer, la conduire à réaliser des actions spécifiques en vue d’escroqueries, d’intrusions dans des systèmes, de la diffusion de programmes malveillants (virus, prise de contrôle de la machine utilisateur pour des attaques en dénis de service, cryptolocker, cheval de Troie, …), etc. Cela permet également de faire porter la responsabilité d’actions malveillantes sur la personne dont le compte a été usurpé, de faire des campagnes de spam, de faire blacklister des adresses email, d’usurper des identités numériques sur des réseaux sociaux, de compromettre des contenus etc. …

Posséder un mot de passe est généralement synonyme de posséder le “Sésame ouvre – toi” de tous les comptes d’un internaute. Même si ce dernier possède des mots de passe différents, il est souvent aisé de déduire comment il les choisi.

Si toutes les informations rendues publiques ne sont pas directement exploitables et profitables il n’empêche que les outils d’analyse des données permettent de retrouver “une aiguille dans une meule de foin” et de tirer parti d’une information relative à l’identification d’une personne. Cela permet par exemple, de reconstituer des organigrammes d’entreprises, des annuaires professionnels de personnes y compris de celles travaillant pour des services sensibles gouvernementaux (justice, police, affaires étrangères, défense, renseignement, …) ou d’institutions privées, de faire fuiter des informations concernant des personnalités politiques, etc. par ailleurs, être en mesure de savoir qui communique avec qui, de récupérer des carnets d’adresses, de créer de “vraies” fausses informations et de faire croire que des contenus émanent de telle ou telle personne, peut servir des stratégies d’influence ou de déstabilisation.

Le contrôle d’accès en question

Cette énième affaire de mots de passe révélés, met en lumière la fragilité des barrières de protection des systèmes basées sur le contrôle d’accès à un seul facteur d’authentification (le mot de passe) et sur la difficulté qu’ont les fournisseurs de services à de protéger correctement les mots de passe de leurs clients, à moins que cela ne soit pas une priorité “business” ou que cela relève de la négligence.

Identifier, être en mesure de prouver l’identité en l’authentifiant constitue une brique de base indispensable au transaction commerciales et financières (consommation, paiement, suivi du consommateur, marketing, publicité ciblée, profilage, traçabilité, …).

Les processus d’identification et d’authentification sont au cœur des mécanismes de contrôle d’accès contribuant à rendre accessible ou non, des ressources informatiques, selon des critères prédéfinis.

Substituer ce que l’on sait par ce que l’on est (contrôle d’accès biométrique, empreinte digitale, rétine, …), ou par ce que l’on possède (jeton d’authentification, clé USB, puce électronique, …) sont des alternatives ou des techniques complémentaires à l’usage de la connaissance de secrets. En fait, toutes ces techniques nécessitent de garder de manière sécurisée des informations du côté du serveur d’authentification et ne résout pas le problème de la fuite possible de ces informations, que même si elles sont chiffrées (cryptées) peuvent parfois être déchiffrées (cas de Collection # ).

Changer de mots de passe régulièrement est toujours une possibilité, l’usage d’un système de mot de passe unique est encore mieux en attendant de pouvoir s’affranchir totalement de l’usage de mots de passe, mais peut être que le remède serait alors pire que le mal …

Depuis 2013, le consortium industriel américain “Fast IDentity Online” (l’Alliance FIDO) promeut l’usage intégré de plusieurs techniques d’authentification, ainsi que des standards d’authentification Web Authentication (WebAuthn) standard (avec le World Wide Web Consortium (W3C)) et du Client to Authenticator Protocol (CATP). L’ensemble étant soutenus par les acteurs hégémoniques du Net, de la téléphonie, des organismes de paiement comme Google, Microsoft, Amazon, Alibaba, Facebook, Intel, Lenovo, Paypal, Sansung, Visa par exemple, membres de “l’alliance” et dont les solutions sont intégrées dans leurs produits. Cette même Alliance est en mesure de certifier les partenaires qui adoptent ses mécanismes d’authentification…

Dénoncer des problèmes de mauvaise gestion de mots de passe pour inciter à une meilleure qualité de gestion des mécanismes d’authentification est une bonne chose. Migrer vers d’autres mécanismes d’authentification, qui déplace le problème de la sécurité sans pour autant le résoudre car les solutions de sécurité doivent être sécurisées avec une robustesse efficace dans le temps (ce qui n’est pas encore prouvé), ressemble à une fuite en avant technologique. L’incitation à passer par des solutions “FIDO” fidélisera le consommateur à une solution unique valable pour tout, ce qui facilitera également son profilage et ajoutera de la dépendance à la dépendance.