Pegasus dans les mains des mollahs ? Les dangers des armes d’espionnage numérique

Une enquête du New York Times publiée en janvier 2022[1] démontre que l’entreprise israélienne NSO Group, qui développe le logiciel d’espionnage Pegasus, ne le livre pas seulement aux démocraties occidentales mais également parfois à des régimes autoritaires peu fréquentables. Ce faisant, elle renverse les garde-fous qu’elle prétend encore ne pas franchir, dont celui de trier sur le volet les gouvernements demandeurs. Dans un article paru le 16 novembre 2022 dans +972 Magazine, un magazine indépendant qui réunit des journalistes palestiniens et israéliens, Tariq Kenney-Shawa semble craindre que la prise de liberté de NSO Group par rapport à ses principes lui aurait vraisemblablement fait vendre son logiciel au régime des mollahs iraniens[2]. Certes, il n’apporte aucune preuve irréfutable, ce qui serait bien difficile à faire, mais au vu des découvertes antérieures du New York Times, cela semble plutôt plausible. Et cela ne serait qu’un exemple parmi d’autres. Le Temps du 18 janvier 2023 mentionne en effet l’utilisation généreuse de la même application de surveillance par le pouvoir marocain, soupçonné d’ingérence au Parlement européen, au même titre que le Qatar[3].

Dans son article, Tariq Kenney-Shawa se pose la question de savoir si la révolte populaire en Iran a des chances significatives de renverser le régime des mollahs. Cet article est repris par Courrier international dans son édition du 15 décembre 2022 sous le titre « La révolte en Iran peut-elle réussir ? »[4]. Selon l’auteur, la victoire des révolutionnaires et des défenseurs des droits humains et des droits des femmes est loin d’être acquise. Son principal argument repose sur le fait que les régimes répressifs sont désormais mieux armés technologiquement pour exercer une répression féroce sur toute forme de mouvement révolutionnaire. Et le logiciel Pegasus fait précisément partie de cet arsenal d’un type nouveau. Il est d’ailleurs désormais considéré par Israël comme une arme au même titre que les drones, les fusils d’assaut ou les missiles[5].

Les logiciels d’espionnage sont désormais considérés comme des armes de guerre. Image: unsplash.com/@chris_chow

Pendant les printemps arabes de 2010-2012, on considérait que le peuple, par sa maîtrise des réseaux sociaux, comme Facebook ou Twitter, avait une longueur d’avance sur les régimes autoritaires qu’il visait à renverser. Les médias occidentaux s’en sont largement réjouis, qualifiant les réseaux sociaux de véritables outils de liberté. Les GAFAM devenaient en quelque sorte les grands héros de la démocratie. Las, aujourd’hui, toujours selon le journaliste du +972 Magazine, « les contestataires se battent désormais contre des régimes plus puissants, plus intelligents et mieux installés, qui ont su s’adapter aux méthodes modernes de résistance. Grâce à l’expérience accumulée au fil des ans, les despotes (…) se sont approprié les outils technologiques – dont beaucoup espéraient pourtant qu’ils permettraient de contourner la censure et de faciliter la mobilisation – pour exercer une surveillance stricte de la population (…). Grâce aux progrès des instruments de surveillance, les services de renseignement au Moyen-Orient sont désormais capables de s’infiltrer dans les moindres recoins de la société civile, ou presque. Il est devenu quasiment impossible de communiquer ou d’organiser des actions à l’insu d’un gouvernement ».

Un renversement de pouvoir dans la maîtrise du numérique

Aussi, comme dans la dystopie orwellienne 1984 où règne un tyran, Big Brother, qui observe tout le monde, les outils technologiques de surveillance redeviennent la propriété du pouvoir en place. Il n’y a plus de « surveillant surveillé », pour reprendre une formule populaire dans le champ des études sur la surveillance[6], et c’est surtout au renforcement du surveillant qu’on assiste. Or, la technologie phare utilisée ou convoitée par ces régimes, dont peut-être aussi le régime iranien, est précisément le logiciel Pegasus, qui aura défrayé la chronique lorsque journalistes et militants du monde entier ont découvert que leur téléphone portable était espionné sans qu’ils s’en doutent[7].

En effet, ce logiciel s’installe désormais sur un téléphone portable à l’insu total de l’utilisateur, sans même requérir la moindre action sur un message malveillant reçu, en exploitant des failles de sécurité des systèmes iOS et Android. Pour rappel, il permet d’espionner les messages de la victime, d’activer sa caméra ou son microphone, d’établir la liste de ses appels et de récolter toute forme d’information contenue et produite par les applications. Pegasus fait le bonheur des services de lutte contre le terrorisme, des services secrets, des polices nationales mais aussi, hélas, des régimes autoritaires. Même s’ils l’utilisent dans un premier temps à bon escient, certains gouvernements démocratiques ne résistent pas à la tentation d’utiliser le logiciel d’infiltration pour des causes moins nobles. C’est le cas du Mexique, qui est ainsi parvenu à arrêter le célèbre baron de la drogue El Chapo, mais a également utilisé cette nouvelle arme pour espionner des avocats défenseurs des droits de l’homme qui enquêtaient sur l’implication du gouvernement fédéral dans le massacre d’étudiants à Iguala en 2014[8]. Cela fait plus de 40 ans que cette pratique, baptisée « function creep[9] » et visant à détourner l’usage d’une technologie à des fins de surveillance est parfaitement documentée dans les études sur la surveillance. Ce sont précisément les dangers liés à ces détournements que ciblent prioritairement les lois sur la protection des données, dont la RGPD[10] européenne. Une banalisation de ces pratiques, enrichies par un mélange des données, entraînerait un glissement inéluctable vers une société de surveillance totale.

Dans le cas qui nous intéresse ici, on peut véritablement se demander pourquoi le gouvernement israélien et ses services secrets ne montrent pas une plus grande sévérité envers NSO Group, qui vend son logiciel à des régimes connus pour mener des politiques hostiles à Israël. On a vu des têtes tomber pour moins que cela. Les Etats-Unis, par exemple, n’ont pas épargné Assange ou Snowden, qui suivent pourtant une ligne éthique et des objectifs bien plus louables : la défense de la liberté et de la démocratie. Pourquoi ne sont-ils pas alors traités comme des défenseurs de ces principes fondamentaux ?

NSO Group – Pourquoi les coupables courent-ils toujours ? Image: Pixabay.com/@www_slon_pics

Pour Amnesty International, la vente extrêmement lucrative du logiciel Pegasus est hors de contrôle. Elle s’inscrit dans le cadre d’un « manque général de régulation qui a créé un véritable Far West dans lequel les militant·e·s et les journalistes sont pris pour cible de façon abusive et généralisée[11] ». Ce constat, publié en 2021 par l’organisation, laisse penser que les agissements de NSO Group ne seraient guidés que par leur cupidité. Selon la même organisation, rien n’a changé depuis lors. À l’été 2022, Amnesty International a dénoncé le fait que « les entreprises de surveillance continuent de tirer profit des violations des droits humains à l’échelle mondiale[12] ». Depuis 2021, les Etats-Unis ont même inscrit NSO Group, aux côtés d’une entreprise russe et d’une entreprise singapourienne, dans la liste des entreprises étrangères qui se livrent à des activités malveillantes, y compris à l’égard d’employés d’ambassades[13]. Dès lors, sommes-nous vraiment face à une situation devenue hors de contrôle ?

L’enquête du New York Times citée au début de cet article propose une autre analyse. Elle suggère que NSO Group et les pouvoirs israéliens travaillent en étroite collaboration. Pour le journal new-yorkais, le logiciel Pegasus représente une véritable opportunité qui permet à Israël de contourner l’appréhension des Etats-Unis de devoir partager des informations sensibles avec ses alliés, en ayant recours à des portes dérobées inconnues des autres pays clients, y compris des gouvernements occidentaux alliés. Dit plus simplement, en haut de la pyramide de l’espionnage, les clients de NSO Group pourraient bien être espionnés eux-mêmes par les services secrets israéliens. Cette possibilité, qui reste à prouver, suscite des craintes légitimes car elle n’est pas sans rappeler le scandale de la société suisse Crypto AG, qui, entre 1970 et 1993, a permis aux services secrets allemands et états-uniens d’accéder aux données des clients de son système de cryptage, soit plus d’une centaine d’Etats[14].

Les panelistes de la table ronde « Ethics of the Sale of Cyber and Intelligence Tools at the Offensive Realm », qui s’est tenue à Tel Aviv dans le cadre d’une conférence sur l’innovation technologique, abondent dans ce sens. S’interrogeant sur l’éthique en matière de vente d’outils cybernétiques et de renseignement, ils se sont dit convaincus que les entreprises concernées allaient continuer leurs ventes avec la bénédiction de l’Etat israélien[15]. Ainsi, il est raisonnable d’émettre l’hypothèse que par le biais d’une porte dérobée dans le logiciel Pegasus, les services secrets israéliens peuvent, avec une précision jamais atteinte, identifier et espionner les personnes cibles des régimes autoritaires, tout en ayant accès aux données personnelles de ces mêmes cibles. Voilà qui permettrait d’avoir un coup d’avance géostratégique extrêmement avantageux.

Quel avenir pour la démocratie dans le monde ?

En somme, est-ce vraiment le « Far West » du côté de NSO Group, qui ne serait guidé que par sa seule cupidité, comme le suggère Amnesty International ? Le logiciel est-il réellement vendu au plus offrant, sans distinction politique aucune ? Il est difficile de croire à un laisser-faire de la part du gouvernement israélien. Cela équivaudrait pour lui à se tirer une balle dans le pied, métaphore d’autant plus pertinente que Pegasus, on l’a vu plus haut, est désormais considéré comme étant une arme de guerre par le gouvernement israélien lui-même. La thèse défendue par le New York Times sur NSO Group semble plus plausible lorsque l’on se place sur l’échiquier géostratégique mondial. Si ces pratiques s’intensifient et se répandent, dans les régimes autoritaires comme dans les régimes occidentaux, faut-il alors craindre une mort lente de la démocratie ?

Essayons de nous rassurer un peu en puisant dans la littérature classique des sciences politiques. Pour Alexis de Tocqueville, grand théoricien et observateur de la démocratie, tout régime, aussi autocratique soit-il, tend irrémédiablement vers un éclatement des forces autoritaires pour s’ouvrir à la démocratie, comme attiré par une force gravitationnelle. Cela ne serait qu’une question de temps. Voilà la thèse ardemment défendue dans le premier tome de De la démocratie en Amérique[16], publié pour la première fois en 1835. L’auteur prend l’hésitation française et ses allers-retours entre la Révolution et la Restauration de l’Ancien régime comme exemple, en l’opposant à celui de l’Amérique qui s’est inscrite pour plus de deux siècles dans une démocratie relativement stable. L’antithèse est bien évidemment celle des écueils pratiquement inévitables de la démocratie, aujourd’hui rigoureusement exploités par l’extrême-droite et qui mènent potentiellement à sa destruction. S’il ne parle pas de l’extrême-droite, Alexis de Tocqueville partage déjà ses préoccupations quant à la fragilité de la démocratie dans le deuxième tome de De la démocratie en Amérique[17], paru cinq ans plus tard. Il s’inquiète de voir une population prise dans le piège d’une société de consommation qui finit par la rendre impassible face aux enjeux politiques contemporains. Placée dans une temporalité à plus long terme, et examinée avec un regard critique, peut-être que la contradiction de Tocqueville n’en est plus vraiment une. Il y aurait un temps pour une inéluctable démocratisation, suivi d’un temps pour sa destruction, puis sa reconstruction.

Face aux armes numériques d’espionnage, nos démocraties sont-elles en danger ? Image: unsplash.com/@fwed

Ici et maintenant, on peut légitimement se demander si l’accès de gouvernements, démocratiques ou non, à une arme ultime d’espionnage va dans le sens d’une stabilisation de la démocratie ou si, au contraire, elle mène cette dernière à sa perte. Même dans le cas d’un régime démocratique, les analyses, dont celle du New York Times, tendent à montrer qu’il est difficile pour l’Etat détenteur de Pegasus de résister à la tentation d’outrepasser l’usage premier et officiel (par exemple, lutte contre le terrorisme ou le crime organisé) pour viser dans un deuxième temps des objectifs moins nobles, tels que l’espionnage de groupes potentiellement critiques envers le pouvoir.

Il est très dangereux de la part d’Israël de permettre aux régimes autoritaires, dont celui les mollahs si tel est le cas, de multiplier leur efficacité en matière de répression avec un logiciel espion, sous prétexte que cela peut leur donner un avantage stratégique en leur permettant d’espionner les espions sans que ces derniers le sachent. L’impression d’avoir ainsi peut-être un coup d’avance sur l’échiquier géostratégique international a un prix extrêmement élevé. En outre, sur les plans de l’éthique et des droits de l’homme, cette façon de procéder est parfaitement inadmissible. Espionner finement sa population pour exercer un contrôle insidieux sur lui, que cela soit par le biais d’une répression sanglante ou d’un contrôle subtil visant à pousser à la consommation ou à influencer des votes n’est jamais sain du point de vue démocratique. Il suffit de se rappeler le scandale de Cambridge Analytica, dont les agissements ont été révélés en détail par Christopher Wylie, un ingénieur qui travaillait pour cette société[18].

Seules doivent être tolérées des opérations fines destinées à lutter contre le terrorisme ou à déjouer l’espionnage d’un Etat ennemi ou ami. Ces exceptions sont prévues dans les lois sur la protection des données, telles que la loi suisse de protection des données et la fameuse RGPD européenne, qui montre hélas, malgré toute la bonne volonté des juristes et des parlementaires européens, de sérieux signes de faiblesse. Quoi qu’il en soit, il ne faut en aucun cas tolérer l’installation d’une situation de « Far West » de la surveillance et la création d’un « paradis des données », que ce soit pour un régime autoritaire ou démocratique ou pour une institution publique ou privée.

[1] https://www.nytimes.com/2022/01/28/magazine/nso-group-israel-spyware.html

[2] https://www.972mag.com/popular-uprisings-middle-east/

[3] https://www.letemps.ch/opinions/derriere-qatargate-maroc

[4] https://www.courrierinternational.com/article/analyse-la-revolte-en-iran-reussira-t-elle-a-conjurer-le-sort-du-printemps-arabe

[5] https://www.972mag.com/nso-surveillance-companies-israel-army/

[6] Pour une introduction de ce champ d’études, voir notamment : Marx, Gary T. Windows into the Soul: Surveillance and Society in an Age of High Technology. Chicago: The University of Chicago Press, 2016.

[7] https://www.lemonde.fr/projet-pegasus/article/2021/07/19/projet-pegasus-comment-la-societe-israelienne-nso-group-a-revolutionne-l-espionnage_6088692_6088648.html

[8] https://www.nytimes.com/2022/01/28/magazine/nso-group-israel-spyware.html

[9] Voir par exemple : Koops, Bert-Jaap. « The concept of function creep ». Law, Innovation and Technology 13, nᵒ 1 (2021): 29‑56.

[10] Le « règlement général sur la protection des données » : https://commission.europa.eu/law/law-topic/data-protection/data-protection-eu_fr

[11] https://www.amnesty.ch/fr/themes/surveillance/docs/2021/projet-pegasus-revelations-espionnage-grande-ampleur-logiciel-israelien-nso-group

[12] https://www.amnesty.ch/fr/themes/surveillance/docs/2022/pegasus-un-an-apres-la-crise-des-logiciels-espions-se-poursuit

[13] https://www.commerce.gov/news/press-releases/2021/11/commerce-adds-nso-group-and-other-foreign-companies-entity-list

[14] https://flypaper.ch/crypto-ag-a-espionne-depuis-la-suisse-elle-nest-pas-la-seule/

[15] https://www.972mag.com/nso-surveillance-companies-israel-army/

[16] Tocqueville, Alexis de. De la démocratie en Amérique, I. Folio. Histoire 12‑13. Paris: Gallimard, 1986.

[17] Tocqueville, Alexis de. De la démocratie en Amérique, II. Folio. Histoire 12‑13. Paris: Gallimard, 1986.

[18] Wylie, Christopher. Mindf*ck: Cambridge Analytica and the Plot to Break America. New York, 2019.

Payer pour avoir la paix : vie privée et société numérique à deux vitesses

Lors de l’écriture de ma thèse sur les cartes de fidélité et les données qu’elles produisent m’est venue une intuition. Je n’étais certainement pas le seul à l’avoir, et elle est devenue aujourd’hui réalité. Le droit à la vie privée est en train de devenir un privilège réservé aux classes sociales aisées. Un article d’Alan Westin[1] paru en 2003, source de cette intuition de recherche, était parmi les premiers à souligner la dimension sociologique de la vie privée.

Revenir sur le second épisode de la première saison de la série d’anticipation Black Mirror permet d’illustrer facilement cette dynamique. Diffusé en 2011, l’épisode intitulé Fifteen Million Merits expose des jeunes gens enfermés dans un monde où la principale occupation est de pédaler pour produire de l’électricité et obtenir les crédits nécessaires au coût de la vie. Les individus peuvent accumuler leurs avoirs pour améliorer leur quotidien ou s’offrir un accès à un concours télévisé de type The Voice ou America Got Talents, accédant ainsi au statut de star, seul moyen de s’extraire de leur condition. Il apparaît assez clairement plus tard dans l’épisode que cette compétition est largement truquée. Une favorite promise à un grand avenir grâce à une voix hors du commun échoue pour finir par alimenter le contenu d’une sombre chaîne de pornographie.

Une installation située à la place du Rhône, Genève. Image : par l’auteur

Pendant leurs heures de repos, les pédaleurs se retrouvent dans de minuscules cubes qui ressemblent plus à des cellules de prison qu’à des studios. Les murs de ces cellules sont des écrans géants très lumineux et impossibles à éteindre. On retrouve ici clairement le caractère invasif du « télécran » de la dystopie de George Orwell, 1984, qui lui aussi se trouve dans tous les appartements. La différence dans le cube des pédaleurs est l’introduction de la notion de divertissement, alors que le télécran orwellien reste un outil de contrôle et de répression. Lorsque les pédaleurs se reposent, ils peuvent se divertir en regardant un choix très limité d’émissions rivalisant d’abrutissement. Sans grande surprise, elles sont fréquemment coupées par de longues publicités dont le son est décuplé. Option absente dans le cauchemar orwellien, les pédaleurs peuvent dépenser une poignée de crédits pour mettre le son en veille, sans pour autant couper l’image.

La tyrannie des écrans géants. Image : Marcus Herzberg @ Pexels

Cette dernière possibilité vous semble familière ? Oui, elle s’est présentée avec l’introduction des systèmes de replay intégrés dans l’appareil qui diffuse désormais la télévision dans nos foyers. On pouvait alors utiliser gratuitement l’avance rapide pour sauter la publicité. Un rêve qui se réalisait ! Seulement voilà, on s’en doutait, ce service compris dans l’abonnement TV de base est devenu en 2022 payant, à l’exception de l’opérateur Sunrise. Il faut compter entre 3.95 et 16.90 francs par mois selon les fournisseurs pour continuer à en profiter. Salt propose l’abonnement le meilleur marché, revenant à 47.40 francs ou 119.40 francs en fonction des options choisies. Mais il faudra compter pas moins de l’équivalent de 202.80 francs par an[2] chez Swisscom pour avoir le droit de passer la publicité avec l’abonnement « Replay Confort » ! Il n’y a pas de taux de change entre les francs suisses et les crédits virtuels, la monnaie utilisée dans l’épisode de Black Mirror. Difficile donc de comparer la fiction et la réalité, mais une chose est certaine, c’est plutôt cher !

Passer la pub, et vite ! Image : danydory @ Pixabay

Certes, cela peut paraître acceptable pour celles et ceux qui peuvent se permettre le luxe de s’épargner le gavage publicitaire après de longues journées de travail. Toujours est-il que certains préfèrent ne pas payer et devoir composer avec le matraquage publicitaire.

Qu’en sera-t-il dans un an, trois ans ou cinq ans ? Ces prix vont-ils se stabiliser ? A cause de la concurrence déloyale des géants de l’Internet qui proposent un système de ciblage publicitaire efficace et abordable, les revenus publicitaires des médias traditionnels plongent. L’avance rapide qui permet de passer la publicité restera-t-elle relativement abordable ? Est-ce que cela ne deviendra pas, pour paraphraser Alan Westin, un « privilège de classes aisées » que d’avoir sa vie privée épargnée par ces intrusions extérieures ? Si l’on suit ce raisonnement, les ménages plus modestes auront moins le choix et donneront davantage de temps de cerveau disponible aux chaînes privées, pour reprendre l’expression devenue célèbre formulée en 2004 par Patrick Le Lay, alors président-directeur général du groupe TF1[3]. Cette idée de « temps de cerveau disponible » s’exprime aujourd’hui en sociologie du numérique comme « l’attention des usagers ». Nombre de sociologues, philosophes et essayistes ont œuvré à théoriser une « économie de l’attention »[4] face à ce phénomène de multiplication de l’information.

On l’aura compris. Pour « avoir la paix » en regardant la télévision, il faudra désormais payer. La télévision ne fait pourtant que répliquer le modèle qui domine les services numériques du « freemium ». Pour accéder gratuitement à un contenu ou utiliser gratuitement un logiciel, on accepte de la publicité invasive. Pour se passer de publicité, on paie. YouTube propose un tel service depuis mai 2018[5]. Pour jouir de YouTube et de YouTube Music sans publicité et, petit bonus, en mode hors connexion et faire en sorte que la vidéo ne s’arrête pas lorsque l’écran de l’appareil est éteint, il faut s’acquitter de 15.90 francs par mois. Considérant que le contenu n’est pas produit par YouTube lui-même, qui se contente de l’exploiter en le monétarisant, le prix est particulièrement élevé si l’on compare le contenu auquel on peut avoir accès pour un montant similaire chez Netflix, Disney+ ou OCS.

Image : Mohamed Hassan @ Pixabay

Les frontières « entrantes » et « sortantes » de la vie privée

Mais la « paix payante » ne s’arrête pourtant pas là. On a parlé jusqu’ici de ce qu’on pourrait appeler des « intrusions entrantes » de notre vie privée, faites sur mesure ou pas, directes, perceptibles et immédiates dans la vie privée. Elles nous donnent un sentiment immédiat d’atteinte à notre vie privée.

Il faut maintenant traiter le problème de la frontière « sortante » de notre vie privée. C’est le flot continu de données que nous laissons à disposition des différents acteurs institutionnels du numérique. On finit souvent par l’oublier tant le processus est automatique. Si les regards sont dirigés davantage sur lesdits GAFAM lorsqu’il est question de vie privée numérique, il ne faut pas pour autant oublier les plus petits acteurs locaux comme la grande distribution locale, via les cartes de fidélité. Ils ne sont pas en reste concernant l’exploitation des données et le profilage de leurs clients[6].

De plus, l’acronyme GAFAM est devenu bien trop court pour refléter la réalité empirique de la récolte systématique des données. A Google, Apple, Facebook, Amazon et Microsoft il faut ajouter par exemple Twitter, Instagram, Snapchat… mais surtout l’acteur chinois qui alpague tous les jeunes et moins jeunes utilisateurs sur son passage, le chinois Tik Tok. Il n’est pas dans l’acronyme désormais dépassé, mais ses pratiques sont pourtant encore plus opaques que celles de ses concurrents américains, politique chinoise oblige. À l’heure actuelle, selon l’article du Guardian du 8 novembre 2022 qui s’interroge sur le sujet[7], il est impossible de savoir où sont stockées ces données et quel usage en fait le gouvernement chinois. La société mère de TikTok, ByteDance, tente de rassurer les utilisateurs de son application dans le monde sur ce dernier point en assurant que tel n’est pas le cas. On retrouve le même type de discours du côté de Huawei, acteur technologique principal du développement de la 5G. Face à ces tentatives de minimisation, un « ordre exécutif » signé par Donald Trump donne une plus juste mesure : « TikTok capture automatiquement de vastes pans d’informations de ses utilisateurs, y compris des informations sur l’activité d’Internet et d’autres réseaux, comme les données de localisation et les historiques de navigation et de recherche. Cette collecte de données risque de permettre au parti communiste chinois d’accéder aux informations personnelles et exclusives des Américains[8] ».

Une utilisatrice de TikTok. Image: Cottonbro Studio @ Pexels

Si TikTok occupe le centre d’un bras de fer géopolitique, la question devient également extrêmement inquiétante pour le commun des utilisateurs. À en croire certains experts interviewés par le Guardian, les données des utilisateurs de TikTok, soit un quart des Américains selon le Pew Research Institute[9], sont littéralement aspirées et jetées en pâture au service de l’intelligence chinoise.

Ce n’est là qu’un exemple. Depuis la révision de la loi sur la protection des données (LPD[10]) de 2018, même en l’absence d’une intrusion clairement identifiable, la fuite des données peut représenter une atteinte à la vie privée par le droit suisse. Avant cette révision, une entreprise ou un particulier ayant récolté des données pouvait en faire usage librement sans que cela soit considéré comme une violation de la vie privée. Désormais la simple récolte et détention de données est illicite, si elle ne respecte pas les cinq principes édictés par la loi[11]. Il en va de même avec le plus sévère Règlement Général sur la Protection des Données (RGPD) de l’Union européenne[12].

Ce problème contemporain, que l’on pouvait encore ignorer il y a peu, a cessé de devenir la spécialité des juristes et constitue également une source de préoccupation dans l’opinion publique. Hélas, face aux manques de moyens, la réponse générale est plutôt une attitude de résignation. Alors justement, comment protéger notre vie privée devenue de plus en plus précieuse, mais surtout de plus en plus mise en danger ? Faut-il accorder une confiance aveugle aux lois de protection des données, telle la RGPD européenne ? Dans les traces d’Edward Snowden pour qui la « RGPD est une farce[13] », tout en étant moins radical, je m’accorde aussi à penser que les lois actuelles sont très largement insuffisantes. Clairement, aujourd’hui, pour protéger au mieux sa vie privée et ses frontières, entrantes et sortantes, comme on va le voir, il faut payer. Et il faudra peut-être payer de plus en plus cher pour s’offrir une vie privée décente.

Préserver sa vie privée dans un monde numérique devenu très intrusif. Image: Pixabay

Actuellement, par exemple, si on veut vraiment utiliser une messagerie garantissant la stricte confidentialité de nos messages, il faudrait abandonner Gmail. Google se défend bien entendu d’atteindre nos messages par son astuce rhétorique reprise par tant de concurrents, d’une mauvaise foi remarquable, comme le suggère en 2007 déjà Daniel J. Solove, professeur en droit à la George Washington University Law School[14]. En effet, Google constate l’absence de problème et de danger pour la vie privée de ses utilisateurs car ce ne sont pas des personnes humaines qui scrutent leurs messages, mais des algorithmes. Comme ces algorithmes sont des robots, il n’y aurait pas d’atteinte à la vie privée. Mais la littérature scientifique critique sur le numérique n’a eu de cesse, depuis lors, de démontrer l’ineptie d’une telle ligne de défense. Les algorithmes qui scrutent nos messages pour fabriquer notamment de la publicité ciblée ont des effets sociaux bien réels. Ils sont devenus des machines à discriminer qui décident qui vous êtes à votre place et parfois, selon certaines études, mieux que vous-même. Mais surtout, ils décident à quelle ressource vous aurez accès ou non, comme je le démontre en conclusion de mon premier article de ce blog, « Notre société de contrôle et la fatigue des codes d’accès ».

Des solutions existent, mais elles ne sont donc pas gratuites. L’énergie dépensée, la technologie utilisée et le travail des ingénieurs pour construire des systèmes de messagerie, dont le courriel, ne sont pas et ne seront jamais sans coût matériel et humain. On peut citer l’entreprise suisse Proton Mail qui propose un système sécurisé et, surtout, qui n’est pas financé par l’utilisation de profils de personnalité construits sur la base du contenu de vos messages ou de leurs métadonnées. Selon le modèle également adopté du « Freemium »[15], à la différence près que la version gratuite offre le même confort pour la vie privée, vous obtenez un compte gratuit. Mais il est limité. Et avec les usages courants, cette limite sera vite dépassée, comme les forfaits mobiles de 1 ou 2 gigaoctets qui sont pulvérisés après deux jours en cas d’usage moyen. À moins de faire fréquemment le ménage minutieux dans vos messages, vous choisirez à raison de soutenir cette entreprise en finissant par souscrire un abonnement.

Il en va de même pour les solutions de Cloud pour le stockage à distance de vos données. Les généreuses offres de Google, Dropbox ou OneDrive ne garantissent pas, selon les puristes, un traitement confidentiel de vos données. En Suisse, pour avoir un Cloud de qualité, il faudra payer davantage (à l’exception notable d’Infomaniak) mais aussi oublier par exemple l’offre imbattable sur le plan du prix et du service offert de Microsoft qui vous loue sa suite bureautique Office 365 avec un téraoctet de stockage dans son Cloud.

En matière de protection des données, c’est un modèle d’affaires en pleine émergence qui pourrait se développer rapidement et s’avérer très lucratif. Plus il y aura de scandales, plus on sera enclins à payer pour obtenir des services numériques qui donnent les meilleures garanties de respect de notre vie privée. Ce sera le cas pour celles et ceux qui pourront se permettre de multiplier les abonnements mensuels ou annuels à des prix qui, s’il sont souvent raisonnables, représentent un budget conséquent une fois qu’on les multiplie. Avec la pression continue des fournisseurs de services pour souscrire des abonnements de tous types sans que l’on s’en rende forcément compte, le budget numérique de chacun part de toute façon à la hausse.

Peut-être faudra-t-il prévoir dans un futur pas si lointain une centaine de francs par mois pour protéger les frontières de sa vie privée, en entrée comme en sortie, sans compter exclusivement sur les lois de type RGPD qui ne font à l’heure actuelle que déclarer la guerre aux géants de l’Internet. Une guerre qui peut très bien être perdue, face aux intérêts économiques des institutions tant publiques que privées. Selon Edward Snowden, encore une fois, elle l’est déjà.

Une société numérique à deux vitesses

Ainsi, tout laisse à penser que nous allons vers une société numérique à deux vitesses. Une version payante, libre de publicité et sans intrusion continue de notre vie privée tant « entrante » que « sortante » ; et une version gratuite, ou presque, dans laquelle nous sommes sans cesse dérangés, distraits par de la publicité de masse et où nos données personnelles sont exploitées jusqu’à la corde.

Une société numérisée à deux vitesses. Image : Lesiakower @ Pixabay

Le tri algorithmique, néanmoins, continuera à concerner tout le monde, dans une certaine mesure et dans le silence. Lorsque les « boîtes noires » des algorithmes seront peut-être une fois enfin ouvertes, ce qui serait une excellente nouvelle, on pourra néanmoins nourrir encore davantage le modèle d’affaires d’une société numérique à deux vitesses. Celles et ceux qui pourront se l’offrir pourront calmer les ardeurs de ces machines de tri à décider qui est qui et qui a accès à quoi.

Tant que les pouvoirs publics se limiteront à appliquer la « farce du RGPD », pour reprendre les termes de Snowden, nous assisterons à un renforcement de cette dynamique. Mais ils ne le feront très probablement pas, ou en tout cas pas prochainement, car cela ne sert pas les intérêts du Dieu de la croissance et de la Déesse de l’innovation numérique. Les lois de protection de la vie privée ne sont presque plus qu’une recherche continuelle de compromis entre un minimum de protection, absolument nécessaire et louable[16], et la soif inévitable de données personnelles de la croissance numérique. Ces lois cherchent indirectement, avec plus ou moins de bonne foi, plus ou moins de sincérité ou d’hypocrisie, à donner carte blanche à l’économie du numérique, de plus en plus en rupture avec une définition réellement éthique et crédible de la vie privée. Cette recherche de compromis aboutit à une redéfinition de la notion de la vie privée et des « sujets de la vie privée », comme j’ai choisi de les appeler dans un article scientifique où mon argument est que les lois n’ont de cesse d’expliquer aux usagers en quoi consiste leur vie privée plutôt que de prendre en considération ce qu’ils voudraient qu’elle soit vraiment[17].

Le pinacle de cette dynamique de manipulation, pour ne pas dire corruption, de la notion de vie privée est représenté au mieux par un exemple devenu tristement célèbre, l’affirmation d’Eric Schmidt, ancien président-général de Google, sur la CNBC en 2009 : « si l’on a quelque chose que vous ne voulez pas que l’on sache sur vous, peut-être que vous ne devriez tout simplement ne pas le faire (ma traduction)[18] ». L’Electronic Frontier Fondation y voit une négation de la vie privée. J’y vois une négation de la liberté, purement et simplement. Bienvenue dans le monde orwellien de Google. Vous voulez y échapper ? Très bien. On va peut-être pouvoir vous arranger ça. Mais il va falloir ouvrir votre porte-monnaie.

[1] Westin, Alan F. « Social and Political Dimensions of Privacy ». Journal of Social Issues 59, nᵒ 2 (2003): 431‑53.

[2] Il n’y a pas de tarif annoncé pour la fonction replay. La somme calculée correspond à la différence de 10 francs entre la formule « blue TV S » qui ne l’a pas et « blue TV M » qui l’inclut, à laquelle a été ajoutée le montant de 6.90 francs réclamés par l’opérateur pour disposer du droit de passer la publicité en avance rapide.

[3] « Ce que nous vendons à Coca-Cola, c’est du temps de cerveau humain disponible ». Source : https://fr.wikipedia.org/wiki/Temps_de_cerveau_humain_disponible

[4] En format d’essai, voir par exemple : Crawford, Matthew R. Contact: pourquoi nous avons perdu le monde, et comment le retrouver. Paris: la Découverte, 2016, ou Bronner, Gérald. Apocalypse cognitive. Paris: PUF, 2021. Pour un ouvrage davantage scientifique, voir par exemple : Kessous, Emmanuel. L’attention au monde: Sociologie des données personnelles à l’ère numérique. Paris: Armand Colin, 2012.

[5] https://www.youtube.com/premium

[6] Sur ce sujet, voir mon livre tiré de ma thèse de doctorat : Coll, Sami. Surveiller et récompenser: les cartes de fidélité qui nous gouvernent. Terrains des sciences sociales. Zurich: Seismo, 2015.

[7] Milmo, Dan. « TikTok’s Ties to China: Why Concerns over Your Data Are Here to Stay ». The Guardian, 8 novembre 2022, sect. Technology. https://www.theguardian.com/technology/2022/nov/07/tiktoks-china-bytedance-data-concerns

[8] https://trumpwhitehouse.archives.gov/presidential-actions/executive-order-addressing-threat-posed-tiktok

[9] https://www.pewresearch.org/fact-tank/2022/10/21/more-americans-are-getting-news-on-tiktok-bucking-the-trend-on-other-social-media-sites

[10] https://www.fedlex.admin.ch/eli/cc/1993/1945_1945_1945/fr

[11] Voir l’article 4 pour la description de ces principes : https://www.fedlex.admin.ch/eli/cc/1993/1945_1945_1945/fr#art_4

[12] https://commission.europa.eu/law/law-topic/data-protection/data-protection-eu_fr

[13] Lire les extraits de son interview à l’EPFL en 2020 : https://www.letemps.ch/economie/edward-snowden-ne-cessez-lutter-liberte

[14] Solove, Daniel. « “I’ve Got Nothing to Hide” and Other Misunderstandings of Privacy ». San Diego Law Review 44 (2007): 745‑72.

[15] Principe selon lequel les fonctionnalités de base d’une application sont gratuites (« Free »), avec de la publicité voire une exploitation des données personnelles. Pour avoir plus de fonctionnalités et une meilleure protection de sa vie privée, il faut passer en mode « Premium ».

[16] Colin J. Bennett, par dupe pour autant, continue à défendre fermement et avec une foi indémontable la robustesse des lois de protection des données. Voir : Bennett, Colin J. The Privacy Advocates: Resisting the Spread of Surveillance. Cambridge, MA: MIT Press, 2008.

[17] Coll, Sami. « Power, knowledge, and the subjects of privacy: understanding privacy as the ally of surveillance ». Information, Communication & Society 17, nᵒ 10 (2014): 1250‑63.

[18] https://www.eff.org/fr/deeplinks/2009/12/google-ceo-eric-schmidt-dismisses-privacy

Notre société de contrôle et la fatigue des codes d’accès

On vient d’ouvrir mon blog, j’en suis ravi et remercie toute l’équipe du journal Le Temps. Pour activer mon accès à la plateforme rédactionnelle, j’ai dû me connecter sur une interface WordPress, entrer mon email et le mot de passe qui m’a été communiqué. Sur la page d’accueil, je suis invité à me connecter à Jetpack, un module qui permet un suivi statistique de la page. Il a fallu que j’indique l’identifiant de mon compte chez wordpress.com ainsi qu’un autre mot de passe. Puis, j’ai dû cliquer sur un bouton d’activation. Ensuite, comme il n’est pas recommandé de laisser un mot de passe qui a été communiqué par un email non crypté, rebelote : je choisis un mot de passe spécifique. Et je recommence l’opération pour avoir accès à une base de données d’images libres de droit pour décorer cet article. Je dois valider mon email en cliquant sur un lien, puis m’est demandé de cliquer sur les bus scolaires affichés sur l’interface destinée à vérifier que je suis un humain. En cliquant soigneusement sur ces bus scolaires à côté desquels se trouvent d’autres bus qui pourraient bien être des bus militarisés, j’ai quand même la désagréable impression d’entraîner l’intelligence artificielle d’un drone à ne pas tirer sur l’ambulance… C’est en effet Google avec son interface reCaptcha qui propose ce service à qui veut bien l’utiliser, une fois de plus « gratuitement ». Mais ce n’est pas ici le sujet.

Cette fois-ci, étrangement, je m’en sors à bon compte : pas de vérification à deux étapes, tout est prêt ! Mais ce n’est qu’une petite parenthèse parmi la multitude de fois où j’ai dû insérer des codes aujourd’hui. Au lever, pour consulter le journal Le Temps sur ma tablette qui avait oublié le mot de passé lié à mon abonnement, j’ai dû recopier celui heureusement enregistré sur mon PC. Plusieurs fois, j’ai du scanner mon écran avec mon mobile pour valider des opérations techniques, après avoir dû recopier un code envoyé par SMS. C’était entre le café et la sortie de poubelle, à l’issue de laquelle j’ai dû taper le digicode de l’entrée pour rentrer chez moi. Un ami m’a appelé pour que je l’aide à reprendre en main son site internet d’artiste musicien. Je vous laisse imaginer le nombre de codes et de mots de passe que j’ai dû taper, retaper et re-retaper avant d’accéder partiellement à son site. Il cherche encore dans son cloud des mots de passe, un cloud dont il ne se rappelle plus le mot de passe et qui se trouve bloqué… C’est sans fin.

Ce sont des scénarios devenus classiques. Trop classiques. Et pourtant, quand j’étais encore à l’école primaire, le mot de passe était un jeu. Un peu plus tard, au cycle d’orientation, je m’amusais à créer des passerelles pour mes programmes développés sur Commodore 64 où il fallait taper un mot de passe. C’était juste parce que c’était marrant, parce qu’on voyait ça déjà dans des films de science-fiction à la Wargames (1983).

Des codes, des codes, et encore des codes…

Mais aujourd’hui, cela ne nous fait plus rire. Désormais, nous passons notre temps à taper, retaper, perdre, retrouver ou réinitialiser des mots de passe. « Ne m’en parle même pas, ça me rend cinglé » me disent mes amis, pourtant satisfaits du confort rendu possible par la numérisation des services. Nous sommes justement censés être plus que jamais très vigilants sur nos choix de mots de passe, qui doivent être les plus illisibles possibles et impossibles à mémoriser. C’est très contraignant. Tellement contraignant que peu d’entre nous suivent cette règle, ce qui mène parfois à des catastrophes, lorsqu’une plateforme n’est pas de confiance ou se fait littéralement voler sa liste d’utilisateurs. Selon une statistique américaine, 67% des Américains utilisent le même mot de passe pour différents comptes. Pire encore, 24% d’entre eux utilisent des mots de passe du type « password », « qwerty » ou « 123456 ».

C’est pour pallier ce problème que nous devons de plus en plus souvent justifier notre accès par un protocole dit « à deux étapes » : après avoir tapé son mot de passe, on reçoit sur son mobile un code à retaper. Ou alors il faut chercher un code éphémère sur une application dédiée ou alors sur une application du type Google Authentificator. Ou alors encore, on se retrouve dans la situation ubuesque de devoir sortir sa tablette pour prendre une photo d’un QR code sur son mobile, ne pouvant pas photographier son propre écran.

Des ouvriers oeuvrent à la fabrication d’un QR Code. Image: Xavier Turpain @ Pixabay

Dans l’espoir de nous rendre la vie plus facile, les Apple et les Samsung ont installé sur leurs téléphones et leurs tablettes des systèmes de reconnaissance d’abord digitale, puis faciale. On entend alors dans les ménages des demandes du type « chouchou, tu viens poser ton doigt sur ton téléphone ? », ou encore des « viens montrer ton visage à la tablette ma chérie ! ».

Et toute cette symphonie quotidienne de circulation de mots de passe, de codes d’accès, d’empreintes digitales ou de visages débloquant n’est que la face visible de l’iceberg ! Pour un mot de passe tapé à la main ou mémorisé par notre navigateur, ce sont des milliers de demandes d’accès automatiques et ultrarapides qui circulent entre nos différents dispositifs et les différents serveurs sur internet. L’internet des objets, qui tarde à venir mais que l’on nous promet depuis presque deux décennies, ne fera qu’augmenter cette quantité de codes automatiques. Un ingénieur réseau doté d’une sonde filaire ou par onde, lui permettant de scruter les protocoles d’échanges de données entre les différents points de connexion, se noie dans les codes d’accès, cryptés ou non. Aujourd’hui, pour accéder à une information simple ou à un service simple, ce sont des milliers de transactions qui se déroulent, et qui doivent être chacune validée par des protocoles qui vérifient la légitimité de demande d’accès à une ressource numérique.

Les « sociétés de contrôle » : une société régie par l’accès et le rejet

Gilles Deleuze, philosophe du 20e siècle, connu pour son érudition de Nietzsche et de Spinoza mais aussi pour ses nombreux essais, a écrit un texte que je n’ai eu de cesse de trouver visionnaire à chaque fois que j’étudiais la problématique de la surveillance numérique, notamment dans ma thèse de doctorat qui portait sur la surveillance des consommateurs par les cartes de fidélité. Ce texte est aussi court que visionnaire. Il s’agit de son « post-scriptum sur les sociétés de contrôle[1] », publié pour la première fois en 1990 dans la revue L’autre journal.

Graffiti de Gilles Deleuze. Image: thierry ehrmann @ flickr, licence creative communs

Le philosophe français construit son argumentaire en reprenant comme point de départ le constat de Michel Foucault selon lequel, tel qu’écrit dans Surveiller et punir (1975), nous vivrions dans une « société disciplinaire » où notre corps et notre âme suivent une succession de lieux où ils sont soumis à des disciplines : du cadre familial à l’école, puis de l’école à l’armée, puis de l’armée à l’usine, en passant le cas échant par l’hôpital. Tant d’institutions décriées comme fermées, pour ne pas dire totales si l’on fait référence à l’ouvrage Asiles d’Ervin Goffman[2], qui se passent directement ou indirectement le relais pour modeler le citoyen moderne, qui se tiendra à carreau dans l’espace social. Et si tel n’est pas le cas, il connaîtra un autre espace, disciplinaire jusqu’à son paroxysme celui-là : la prison, que Michel Foucault exploite précisément comme modèle pour étayer sa théorie d’une « société disciplinaire ».

Si l’on en n’a pas fini avec les disciplines, souligne le philosophe, il pense quant à lui que nous ne sommes désormais plus dans une « société disciplinaire », car ce ne sont plus les disciplines qui agiraient en premier plan pour assurer le contrôle social. Selon lui, les barrières entre les différents « espaces disciplinaires » sont tombées, et nous évoluons désormais plus ou moins librement entre une multitude d’espaces, qu’ils soient par ailleurs géographiques ou numériques. Librement, sans doute, mais surveillés de façon continue, et devant de plus en plus justifier notre droit d’accès tant aux espaces qu’aux ressources. Et ce sont précisément les mots de passe, un « chiffre », dit l’auteur, qui nous permettent l’accès à ce dont nous avons besoin à un moment donné. Par extension, ce sont les codes d’accès, nos paramètres biométriques, le code qu’il faut transmettre de Google Authentificator à la plateforme concernée, les codes éphémères transmis par SMS, les codes QR à transmettre de son ordinateur à son mobile, des codes colorés, des suites de texte, etc.

Et qui dit accès, dit naturellement exclusion, refus et rejet. Même lorsque l’on a le droit légitime d’accéder à une ressource, on peut s’en voir temporairement exclu, à cause d’une faute de frappe, d’une panne ou d’un problème administratif. Qui n’a jamais entendu « ce n’est pas nous, c’est la faute à la machine » ? Ce rejet est d’une extraordinaire violence symbolique, cette violence qui précisément frustre le demandeur d’accès et fait sortir de ses gonds la plus calme des personnes. La force de cette frustration répond peut-être à celle de l’angoisse produite lorsque nous accusons un tel refus d’accès à une ressource. Et si je n’avais plus accès à ceci ou à cela de façon permanente, pense peut-être notre inconscient ? C’est tout sauf anodin.

Michel Foucault parlait d’un « pouvoir capillaire » pour exprimer le fait que le pouvoir s’exerce davantage dans les interstices des relations sociales quotidiennes, que de façon explicite et hiérarchique par le biais de procédures dictées par un gouvernement élu, par exemple. Ce type de pouvoir, qui est celui avec lequel nous avons le plus affaire au quotidien est celui qui devient le vecteur de formes de domination sociale et de violence symboliques. Deleuze propose d’affiner notre regard pour traquer ces formes insidieuses du pouvoir capillaire qui se déploie désormais dans les infrastructures numériques. Voici comment Michel Foucault définissait lors de son cours au Collège de France celui-ci :

« Précautions de méthode ; celle-ci d’abord : il ne s’agit pas d’analyser les formes réglées et légitimes du pouvoir en leur centre, dans ce que peuvent être ses mécanismes généraux ou ses effets d’ensemble. Il s’agit de saisir, au contraire, le pouvoir à ses extrémités, dans ses derniers linéaments, là où il devient capillaire ; c’est-à-dire : prendre le pouvoir dans ses formes et ses institutions les plus régionales, les plus locales, là surtout où ce pouvoir, débordant les règles de droit qui l’organisent et le délimitent, se prolonge par conséquent au-delà de ces règles, s’investit dans des institutions, prend corps dans des techniques et se donne des instruments d’intervention matériels, éventuellement même violents[3]. »

Deleuze parle des techniques. Parlons ici encore plus précisément du numérique, ou plutôt de notre monde qui est devenu immanquablement numérique, car les plateformes d’accès ne sont plus optionnelles, elles sont devenues obligatoires. C’est donc désormais dans ces interactions, visibles quand il s’agit d’entrer à la main un code, et invisible quand ces codes, non moins existants, se remplissent automatiquement ou circulent entre les différentes plateformes, qu’il faut chercher les multiples procédures d’accès comme de rejet, de gratification comme de frustration, d’inclusion comme d’exclusion. Autrement dit, pour citer une nouvelle fois Deleuze, il s’agit d’être attentifs aux « formes ultra-rapides de contrôle à l’air libre, qui remplacent les vieilles disciplines opérant dans la durée d’un système clos ».

L’avenir de la critique sociale ?

Quelque part, pour notre confort et pour calmer nos frustrations, nous souhaitons toutes et tous l’émergence d’un code unique, le plus inviolable possible, qui nous économisera tous nos efforts continus d’identification. Mais, au-delà de la question de la sécurité, est-ce vraiment souhaitable ? Qui va réguler le lien entre ce « chiffre » (pour reprendre le terme choisi par Deleuze) et la liste des ressources auxquelles nous avons un droit d’accès ? La multitude de « chiffres » ne reste-t-elle pas, en tout cas à l’heure actuelle, notre seule garante de ce qui pourrait n’être bientôt plus qu’un reliquat de notre liberté ? Qui plus est, cette dissociation ne nous permet-elle pas aussi de pouvoir encore être dans la position de renégocier les conditions d’accès ou de rejet à des ressources ou des services ? Serait-il vraiment sage d’élire un Google ou même une instance étatique comme étant le maître de nos clés d’accès ?

C’est certain, on ne peut pas continuer comme ça. Evoluer dans la société devenue impérativement numérique signifiera se passer de ces continuelles vexations et nous retirer l’épée de Damoclès qui se trouve suspendue au-dessus de chacun de nous. Au moindre faux pas, on risque de tout perdre, dont notre identité numérique, la catastrophe ultime. Il va forcément falloir trouver un système à la fois simple et invisible. Mais si cette invisibilité est souhaitable du point de vue du confort, elle est redoutablement dangereuse car elle peut faire échapper à la critique sociale le système de contrôle des droits d’accès aux ressources qui se renforce jour après jour. C’est déjà le cas avec le tri algorithmique de la population, opéré par des systèmes de carte de fidélité ou par les différents services offerts « gratuitement » par les GAFAM.

Quelques ouvrages de référence pour la critique de la société de surveillance… quels seront-ils pour celle de contrôle? Image: par l’auteur

D’où va naître la résistance et la critique sociale à l’établissement de cette toute-puissante « société de contrôle », telle que théorisée et crainte par Gilles Deleuze, déjà en 1990 ? Cette critique aura eu le temps de se constituer face à la « société disciplinaire » décrite par Michel Foucault, notamment grâce à la réception de l’œuvre majeure de George Orwell, 1984, et de sa figure de proue, Big Brother. Mais comment reconcevoir une critique tangible si les protocoles de domination sociale tendent à devenir de plus en plus invisibles, de plus en plus automatisés, et de plus en plus rapides, à tel point que l’on pourrait presque les qualifier de « high frequency domination » (HFD), répondant ainsi au « high frequency trading » (HFT) opéré par les banques ? C’est d’autant plus potentiellement insidieux que cette invisibilité, pour notre confort, est largement désirée, y compris par moi-même quand je m’énerve, comme chacun d’entre nous, à devoir taper et retaper des codes tout au long de la journée. Pour Deleuze, entre le système disciplinaire et le système de contrôle, « il n’y a pas lieu de demander quel est le régime le plus dur, ou le plus tolérable, car c’est en chacun d’eux que s’affrontent les libérations et les asservissements ». Il est donc illusoire de croire à un relâchement du contrôle social. Il ajoutait déjà en 1990 :

« Il n’y a pas besoin de science-fiction pour concevoir un mécanisme de contrôle qui donne à chaque instant la position d’un élément en milieu ouvert, animal dans une réserve, homme dans une entreprise (collier électronique). Félix Guattari imaginait une ville où chacun pouvait quitter son appartement, sa rue, son quartier, grâce à sa carte électronique (dividuelle) qui faisait lever telle ou telle barrière ; mais aussi bien la carte pouvait être recrachée tel jour, ou entre telles heures ; ce qui compte n’est pas la barrière, mais l’ordinateur qui repère la position de chacun, licite ou illicite, et opère une modulation universelle. »

Ce que le philosophe nous implore de faire alors, à plus de 30 ans d’intervalle, pour rester vigilants et assurer l’établissement d’une critique sociale à même de contenir les excès d’une telle « société de contrôle » est de mener sans relâche « l’étude socio-technique des mécanismes de contrôle, saisis à leur aurore (de façon) catégorielle et (de) décrire ce qui est déjà en train de s’installer à la place des milieux d’enfermement disciplinaires, dont tout le monde annonce la crise. Il se peut que de vieux moyens, empruntés aux anciennes sociétés de souveraineté, reviennent sur scène, mais avec les adaptations nécessaires. Ce qui compte, c’est que nous sommes au début de quelque chose ».

Soshana Zubboff, dans son appel à la vigilance publiée dans le New York Times, il y a presque un an déjà, lorsqu’elle argue que nous ne sommes qu’au début de l’établissement de la société de l’information, ne manquerait probablement pas d’être d’accord avec le texte du philosophe français. Edward Snowden sans doute non plus.

[1] Deleuze, Gilles. « Post-scriptum sur les sociétés de contrôle ». L’autre journal, 1990, 111‑14.

[2] Erving Goffman, Asiles (Paris: Editions de Minuit, 1968).

[3] Michel Foucault, Il faut défendre la société: Cours au collège de France (1975-1976), Hautes études (Paris: Gallimard/Seuil, 1997), 25.