Une loi européenne pour censurer les mouvements sociaux sur Internet ?

 

Alors que la contestation nourrie par le mouvement des gilets jaunes grandit, alors qu’enflent les rumeurs d’une possible censure du mouvement par Facebook (1), on se livre à un peu de politique-fiction : comment la future loi de censure antiterroriste que la France cherche à imposer à l’Union européenne s’appliquerait-elle à des mouvement sociaux tels que celui des gilets jaunes ?

C’est un texte dont personne ne parle ou presque, et il est pourtant fondamental pour l’avenir des libertés publiques à l’échelle de l’Europe entière. Présenté au mois de septembre 2018, il s’agit du règlement européen dédié à « la prévention de la diffusion de contenus à caractère terroriste en ligne ».

L’article 4 du règlement permet aux autorités publiques de demander directement à n’importe quel hébergeur le retrait d’un contenu relevant de l’apologie du terrorisme. En pratique, cela entérine la situation qui prévaut dans tous les pays réprimant l’apologie ou la provocation au terrorisme. Ainsi en France, depuis 2015, le ministère de l’Intérieur est compétent pour censurer la provocation ou l’apologie du terrorisme sur Internet (si l’hébergeur n’empêche pas l’accès au contenu visé sous 24 heures, alors le blocage de l’ensemble du site peut être mis en place par les fournisseurs d’accès à Internet français). Le tout sans aucun contrôle judiciaire préalable, dans le cadre d’une procédure secrète. Ainsi, en 2015, la France est devenue (devant l’Inde et la Turquie) le pays qui a obtenu le plus grand nombre de suppressions de pages Facebook (38.000 suppressions en un an, pendant que l’Allemagne ou Israël n’en obtenaient que 500).

Là où le règlement européen « innove » radicalement, c’est qu’il impose qu’un tel retrait par les hébergeurs intervienne en un délai record d’une heure, sous peine de sanctions financières. Il prévoit aussi de passer par une voie encore plus discrète pour censurer ces contenus : les « mesures proactives », ces outils de censure automatique déjà développés par les grandes plateformes comme Facebook ou YouTube et qui pourront être paramétrés en concertation avec les autorités (article 6 du règlement). Le futur règlement européen prévoit de généraliser ces outils à l’ensemble des acteurs du Web (non seulement Facebook et YouTube mais aussi OVH, Gandi, NextCloud, Mastodon, etc.), voire même aux outils de messagerie (WhatsApp, Signal, Télégram, Protonmail, etc.) (2). Concrètement, tous les acteurs du numérique devront développer des « mesures proactives pour protéger leurs services contre la diffusion de contenus à caractère terroriste ».

Mais du coup, c’est quoi, un « contenu à caractère terroriste » ?

L’article 2 du règlement explique que les contenus auxquels le texte s’appliquera sont des textes, images ou vidéos qui « provoquent à la commission », « font l’apologie », « encouragent la participation » ou « fournissent des instructions sur des méthodes ou techniques en vue de la commission d’infractions terroristes ». Tout repose donc sur ces « infractions terroristes », définies par le droit de l’Union à l’article 3 de la directive 2017/541.

La liste est longue. On y retrouve évidemment les meurtres visant à terroriser la population. Mais aussi des actes plus éloignés et moins attendus, tels que le fait de « provoquer une perturbation grave ou une interruption » d’un système informatique (un ordinateur, un site Web…) ou de « causer des destructions massives […] à un lieu public ou une propriété privée, susceptible […] de produire des pertes économiques considérables ». Pour être qualifiés d’infractions terroristes, ces actes doivent être commis dans le but de « contraindre indûment des pouvoirs publics ou une organisation internationale à accomplir ou à s’abstenir d’accomplir un acte quelconque » (retirer un projet de loi, par exemple) ou dans le but de « gravement déstabiliser […] les structures politiques, constitutionnelles, économiques ou sociales fondamentales d’un pays ». La simple menace de commettre de tels actes entre aussi dans la définition.

Bref, en droit européen, le piratage ou la destruction massive de biens, ou la menace de le faire, sont des « infractions terroristes » dès lors qu’il s’agit d’influencer une décision politique ou de déstabiliser des institutions.

Maintenant que le cadre est posé, on commence la politique-fiction. Parmi les contenus susceptibles d’être publiés sur Internet par des gilets jaunes, quels sont ceux qui pourraient être considérés comme relevant du « terrorisme » (selon les très larges définitions européennes) par Facebook et Google (soumis à la menace de sanctions en cas d’échec) ou par la police ? Par exemple :
– un appel à manifester sur les Champs-Élysées, alors que le rassemblement précédent a conduit à d’importantes détériorations matérielles et enfonce le gouvernement dans une crise politique ;
– une vidéo qui, prise depuis le balcon d’en face, filmerait la destruction d’une banque ou d’un fast-food, accompagnée d’un commentaire audio du spectateur surpris, du type « ahahah, c’est bien fait pour eux » ;
– une vidéo d’altercations agressives entre manifestants et CRS au prétexte qu’elle serait diffusée par une personne se réjouissant que les autorités publiques soient ainsi remises en cause ;
– un texte menaçant le gouvernement de blocage généralisé de l’économie ou de grève générale ;
– une invective orale du type « si Macron ne démissionne pas, on va venir mettre le feu à l’Élysée » ;
– un communiqué justifiant le fait d’avoir détruit un véhicule de police ;
– etc.

En appliquant le droit à la lettre, on pourrait se demander lequel de ces contenus ne devrait pas être censuré automatiquement par les plateformes du Web une fois que le règlement anti-terroriste sera entré en application. De même, en théorie, ces contenus pourraient être censurés sur simple demande de la police.

Même si, pour l’heure, il s’agit encore de politique-fiction, le droit actuel en France va déjà en ce sens, comme l’illustre le type de discours qui ont pu passer pour de l’« apologie du terrorisme » ces dernières années. Par exemple, des peines de prison ferme pour des provocations lancées par certaines au sujet des attentats de janvier 2015, ou l’injonction faite par le gouvernement fin 2016 à deux sites participatifs pour qu’ils censurent un article revendiquant l’incendie d’un hangar de gendarmerie commis en solidarité avec des personnes poursuivies en justice dans le cadre des manifestations contre la loi travail.

Censure privée, censure totale

Une censure de tels contenus pourrait donc intervenir de deux manières. C’est en quelque sorte « ceinture et bretelles » : quand les « mesures proactives » prises par un réseau social comme Facebook n’auront pas suffi à bloquer les contenus visés, la police pourra prendre le relais, pouvant exiger des services défaillants la suppression d’un contenu dans un délai d’une heure. Tout cela sans l’autorisation préalable d’un juge. Les acteurs concernés s’exposeront à des sanctions s’ils échouent trop souvent à censurer dans le délai d’une heure (article 18).

Bref, pour éviter d’avoir à répondre toute la journée aux demandes des polices des 28 États membres de l’Union européenne, et de subir des sanctions en cas d’échecs à y répondre dans l’heure, les services Web auront franchement intérêt à détecter à l’avance et le plus strictement possible tout ce qui ressemblera de près ou de loin à un « contenu à caractère terroriste », défini de façon extrêmement large.

Or, il est clair que les outils mis au point par Facebook et Google s’imposeront à l’ensemble du Web, même en dehors de leur plateforme, où certains pourraient chercher refuge. De ce qu’ont clairement expliqué des gens du gouvernement et de ce qui apparaît dès 2017 dans les publications de la Commission européenne (3), l’objectif de ce texte est au final d’imposer les filtres automatiques mis au point par les grosses plateformes à tous les acteurs du Web, petits ou grands, européens ou non. Ces derniers devront automatiquement respecter une large « liste noire » de contenus considérés comme illicites par les prétendues intelligences artificielles de Facebook et Google, qui décideront seuls et selon leurs propres critères s’il est autorisé ou non d’appeler à tel mouvement ou d’applaudir telle action contestataire.

Cette analyse ne cherche pas à savoir quels propos devraient ou non être tenus en ligne, ni quelles revendications seraient ou non légitimes. La question est de savoir si on accepte de déléguer à la police et à une poignée d’entreprises privées hégémoniques, qui ne sont soumises à aucun contrôle démocratique, le rôle de juger les actes et les opinions des gens, et de modeler le débat public en conséquence. On répond résolument que non : seul un juge, indépendant des pouvoirs politiques et économiques, doit pouvoir censurer les propos qui, d’après des lois adoptées en bonne et due forme, seraient susceptibles de nuire de manière disproportionnée à autrui.

C’est tout l’inverse que propose Macron, principal promoteur du futur règlement européen : en cédant les pouvoirs de l’État aux géants du Web, il s’imagine pouvoir échapper à toute responsabilité politique en cas de censure abusive et massive du Web.

Ce règlement européen est une loi de censure que les gouvernements français et allemands souhaitent faire adopter d’ici aux prochaines élections européennes, en mai. Ils ont déjà réussi à faire accepter en décembre 2018 leur projet aux autres gouvernements européens, à une vitesse jamais vue au sein de l’Union européenne. Les eurodéputés et toutes celles et ceux qui entendent se présenter aux prochaines élections européennes doivent faire connaitre leur opposition à ce texte scélérat.

Référence :

1. Précision : on n’a connaissance d’aucun élément factuel indiquant que Facebook mettrait ou non en œuvre une censure visant spécifiquement les gilets jaunes. Cet article est une simple analyse juridique.

2. Dans la version du règlement actée en décembre 2018 par le Conseil de l’UE, le considérant 10 a été modifié et semble tenter d’exclure du champ d’application de ce texte les services de communications interpersonnelles : « Interpersonal communication services that enable direct interpersonal and interactive exchange of information between a finite number of persons, whereby the persons initiating or participating in the communication determine its recipient(s), are not in scope ».

Cette précision est toutefois particulièrement hasardeuse et n’a rien de rassurante. D’abord, la précision n’est nullement reprise à l’article 2 du règlement qui définit les différentes notions du texte. Surtout, cette précision n’est pas cohérente : les « services de communications interpersonnelles » sont déjà définis par le code européen des communications électroniques (article 2 et considérant 17), comme pouvant alors couvrir certains services de Cloud (où un nombre limité d’utilisateurs peuvent échanger des documents, typiquement). Pourtant, la version du règlement actée en décembre indique explicitement s’appliquer aux services de Cloud, tout en prétendant ne pas s’appliquer aux communications interpersonnelles. La confusion est totale.

3. Dès juin 2017, la Commission européenne se félicite publiquement d’« avoir travaillé depuis deux ans avec les plateformes clefs du Web au sein du Forum européen de l’Internet », qui regroupe Google, Facebook, Twitter et Microsoft depuis 2015, « pour s’assurer du retrait volontaire de contenus terroristes en ligne », notamment grâce à « l’initiative menée par l’industrie de créer une “ base de données d’empreintes numériques ” [database of hashes] qui garantit qu’un contenu terroriste retiré sur une plateforme ne soit pas remis en ligne sur une autre plateforme ». Pour la Commission, déjà, « l’objectif est que les plateformes en fassent davantage, notamment en mettant à niveau la détection automatique de contenus terroristes, en partageant les technologies et les outils concernés avec de plus petites entreprises et en utilisant pleinement la “ base de données d’empreintes numériques ” ». Cette base de données est ce qu’on appelle « listes noires » dans cette analyse.

 

yogaesoteric
11 janvier 2019

Leave A Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More