Droits Humains et censure numérique

Lors de la semaine des Droits Humains, qui se tient du 13 au 17 novembre à Genève, une pléthore d’évènements, table-rondes et conférences auront lieu. Entre autres, la Haut-Commissaire des Nations Unies aux Droits de l’Homme Michelle Bachelet abordera les défis auxquels notre monde est confronté lors d’une conférence publique intitulée “Les Droits Humains dans une nouvelle ère”. Cette nouvelle édition fait la place belle aux technologies numériques, à la fois perçues comme instruments de promotion des droits humains, mais aussi comme défis.

À cette occasion, il est utile de s’intéresser à l’article 19 de la Déclaration Universelle des Droits de l’Homme qui énonce que : “Tout individu a droit à la liberté d’opinion et d’expression, ce qui implique le droit de ne pas être inquiété pour ses opinions et celui de chercher, de recevoir et de répandre, sans considération de frontière, les informations et les idées par quelque moyen d’expression que ce soit.” Cela pourrait paraitre paradoxal de réfléchir à la liberté d’opinion et à l’accès à l’information aujourd’hui. En effet, nous croulons sous l’information : à travers le web et les réseaux sociaux, tout est disponible à chaque instant, à chaque heure, peu importe le lieu. Cependant, cette abondance d’information ne se traduit pas nécessairement par une pluralité des sources d’information ni ne favorise une pluralité d’opinions.

En effet, les informations auxquelles nous avons accès sont filtrées par des algorithmes. Comme tous nos faits et gestes en ligne sont enregistrés et analysés, ces filtres deviennent chaque jour plus précis et permettent à certaines entreprises technologiques de mieux cerner ce que nous souhaitons voir et ce qui peut nous inciter à rester en ligne. Si le besoin de faire un choix dans les informations est évident, du fait de leur abondance, les critères de ce choix devraient être transparents, et chaque citoyen devrait avoir la possibilité de les changer.

Ainsi l’abondance d’information n’est pas à traduire par un plus grand accès à l’information. Il s’agit en fait d’un plus grand accès à certaines informations choisies par des tiers. En d’autres termes, nous ne pouvons pas librement chercher, recevoir et répandre les informations de notre choixpour reprendre l’énoncé de l’article 19 précédemment cité, mais bien certaines informations choisies pour nous.

La définition du terme “censure” décrit l’ “Examen préalable fait par l’autorité compétente sur les publications, émissions et spectacles destinés au public et qui aboutit à autoriser ou interdire leur diffusion totale ou partielle.”[1] Alors que la notion de censure se réfère ici à une autorité politique, sa définition s’applique parfaitement aux algorithmes des GAFA et autres réseaux sociaux, qui définissent notre accès à l’information, et ainsi deviennent de facto l’autorité compétente sur les publications. Il ne s’agit donc plus d’un choix venant d’une entité publique, responsable devant les citoyens, mais bien d’un groupe d’entités privées, souvent basées à l’étranger. Cette situation sans précédent est particulièrement préoccupante dans un monde globalisé, complexe et en perpétuelle évolution, où les citoyens ont plus que jamais besoin de donner un sens à leur réalité. Par conséquent, la liberté de choisir ses sources d’information, et ainsi de se former une opinion sans ingérence, est aujourd’hui compromise.

D’autre part, les réseaux sociaux ont laissé la porte grande ouverte à la prolifération des fausses informations. Il s’agit d’une guerre de l’information basée sur une idée simple : augmenter les dissensions au sein d’une population autour de controverses comme l’avortement, le racisme, ou les migrations, et avec pour objectif d’affaiblir le pays concerné et d’orienter les décisions de ses citoyens. Les récentes mesures prises par Facebook et Twitter entre autres, pour bloquer des centaines de faux comptes et profils lors des dernières élections étasuniennes, montrent à quel point les réseaux sociaux sont perméables à l’ingérence de pays tiers dans les élections et les processus démocratiques. 

La difficulté croissante à distinguer entre les vraies et les fausses informations, entre les opinions et les faits, ne concerne pas uniquement les citoyens, mais bien tous les pans de la société. En effet, ce nouvel environnement entraîne une érosion progressive de la confiance de citoyens non seulement envers les sources d’information, mais également envers les institutions publiques, ce qui contribue à isoler les citoyens et à renforcer le rôle d’acteurs privés. Devant des institutions publiques de plus en plus affaiblies, les GAFA et autres réseaux sociaux deviennent “l’autorité compétente sur les publications (…) qui aboutit à autoriser ou interdire leur diffusion totale ou partielle” pour reprendre la définition précédemment citée.

Face à ces défis, deux voies sont à explorer.

D’une part, le citoyen détient un aspect de la solution, dans sa responsabilité à développer les connaissances nécessaires à une vie civique numérique, c’est-à-dire non seulement à mieux appréhender les enjeux et limitations liés à l’utilisation des outils numériques, mais aussi à développer une pensée critique face aux informations disponibles en ligne.

D’autre part, un nouveau cadre juridique pour les réseaux sociaux doit permettre d’appliquer les mêmes règles aux contenus publiés sur les médias traditionnels et les réseaux sociaux, et ainsi éviter que les discours de haine, par exemple, ne puissent proliférer aussi facilement. L’intelligence artificielle peut également aider à rendre plus visible l’origine de l’information, et ainsi aider les citoyens à mieux cerner sa véracité et son contexte. Cependant il est essentiel de se rappeler que toute nouvelle régulation ne doit pas porter sur le contenu, mais bien sur la distribution de l’information. En effet, il ne s’agit pas de renforcer encore davantage la capacité des GAFA et autres réseaux sociaux à choisir quel contenu est vrai ou faux, mais bien plutôt d’encadrer la distribution de l’information en ligne, afin de préserver les principes de l’article 19 de la Déclaration Universelle des Droits de l’Homme.

Réferences:

[1]https://www.larousse.fr/dictionnaires/francais/censure/14086

Jérôme Duberry

Jérôme Duberry

Jérôme Duberry est enseignant-chercheur Post-Doc au Centre de Compétences Dusan Sidjanski en Études Européennes, Global Studies Institute, Université de Genève, et chercheur associé à l’IHEID. Ses activités de recherche s'articulent autour de la convergence entre technologies numériques, politique et développement durable (ODD).

Une réponse à “Droits Humains et censure numérique

  1. Bonjour,

    J’avoue que je peine un peu à suivre votre raisonnement… Si je résume :

    Dans un premier temps, vous déplorez une forme d’interventionnisme de la part des GAFA que, malgré les (bienvenues) précautions d’usage, vous assimilez à de la censure. Je signalerais au passage qu’il se s’agit à mes yeux pas de censure puisque les algorithmes ne bloquent pas la *publication*, mais influent sur la *distribution*. On n’empêche pas les gens d’accéder à un texte, on se contente de ne pas leur proposer. La nuance est subtile, mais elle est là.

    Dans un deuxième temps, vous abordez le (réel) problème des fake news sur les réseaux de ces mêmes GAFA. Sans réellement le dire, j’ai l’impression que vous en appelez à une action de leur part pour renforcer les contrôles, endiguer ce flots de faux comptes et à s’imperméabiliser contre les actions malveillantes de certains pays. En un mot, à “censurer mieux” ?

    Enfin, et je passe volontairement le point concernant un sursaut citoyen auquel je ne crois malheureusement pas une seconde, vous proposez cette fois de faire intervenir l’état pour cadrer ce qui est publié et de quelle manière c’est distribué, comportement que vous assimilez plus haut à de la censure (et qui s’en rapproche d’autant plus que l’autorité est désormais politique).

    Du coup, que fait-on ? On bloque les fake news ? On les laisse être publiées, mais on interdit leur distribution ? Qui est en charge de distinguer le vrai du faux ? Les plateformes sont responsables ? Les états ? A noter que l’exemple que vous donnez, les discours de haine, n’entrent globalement pas dans la catégorie des fake news et tombent déjà sous le coup de la loi.

    Vous abordez selon moi un vrai problème, extrêmement complexe, et si l’est une chose que je tire de votre billet, c’est qu’il nous faudra encore du temps pour trouver une solution robuste. Et qu’elle ne sera pas triviale.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *