Censure : Facebook a supprimé 16 millions de contenus et ajouté des « avertissements » sur 167 millions d’entre eux
La censure de l’information n’a jamais été aussi forte, mais les gens se rendent-ils vraiment compte de l’ampleur qu’elle a prise et prend encore ? Un récent article publié dans le British Medical Journal par la journaliste Laurie Clarke a mis en évidence le fait que Facebook a déjà retiré au moins 16 millions de contenus de sa plateforme et ajouté des avertissements à environ 167 millions d’autres. YouTube a supprimé près d’un million de vidéos liées, selon eux, à des « informations médicales sur le covid-19 dangereuses ou trompeuses. »
En tant qu’organisation médiatique indépendante, Collective Evolution a fait l’expérience directe de cette censure. Il en va de même pour de nombreux médecins et scientifiques de renommée mondiale qui ont subi le même genre de traitement de la part de ces organisations de médias sociaux. Il n’y a pas si longtemps, le Dr Martin Kulldorff, professeur de médecine à Harvard, a eu des ennuis avec les responsables de Twitter. C’est également le cas du Dr Carl Heneghan, professeur de médecine factuelle à Oxford et médecin urgentiste, qui a écrit un article sur l’efficacité des masques faciaux pour stopper la propagation du COVID. Son article n’a pas été supprimé, mais Facebook a ajouté une balise indiquant qu’il s’agit d’une « fausse information ». Il existe de nombreux autres exemples.
L’article de Clarke dit, à propos des articles qui ont été supprimés et étiquetés, que :
« si une partie de ce contenu est susceptible d’être délibérément erronée ou vindicative, la pandémie est jonchée d’exemples d’opinions scientifiques qui ont été prises dans la nasse. »
C’est vrai, prenez par exemple le « débat sur les origines du COVID en laboratoire ». Au début de la pandémie, vous n’étiez même pas autorisé à mentionner que le COVID pouvait provenir d’un laboratoire, et si vous le faisiez, vous étiez puni pour l’avoir fait. Les plateformes médiatiques indépendantes étaient démonétisées et soumises à des changements d’algorithmes. Maintenant, tout d’un coup, les médias grand public en parlent comme d’une possibilité légitime. Cela n’a aucun sens.
Laurie Clarke souligne dans son article :
« Cela souligne la difficulté de définir la vérité scientifique, ce qui soulève la question plus importante de savoir si les plateformes de médias sociaux telles que Facebook, Twitter, Instagram et YouTube devraient être chargées de cette tâche… »
« Je pense qu’il est assez dangereux que le contenu scientifique soit étiqueté comme de la désinformation, juste à cause de la façon dont les gens pourraient le percevoir », déclare Sander van der Linden, professeur de psychologie sociale dans la société à l’université de Cambridge, au Royaume-Uni. « Même si cela peut correspondre à une définition (de la désinformation) dans un sens très technique, je ne suis pas sûr que ce soit la bonne façon de la décrire plus généralement, car cela pourrait conduire à une plus grande politisation de la science, ce qui n’est pas souhaitable. »
Ce type de « politisation de la science » est exactement ce qui s’est passé pendant cette pandémie.
« La science est supprimée pour des raisons politiques et financières. Le Covid-19 a libéré la corruption de l’État à grande échelle, et cela nuit à la santé publique. Les politiciens et l’industrie sont responsables de ce détournement opportuniste. Les scientifiques et les experts de la santé le sont aussi. La pandémie a révélé comment le complexe médico-politique peut être manipulé en cas d’urgence – un moment où il est encore plus important de protéger la science. » – Kamran Abbas est médecin, rédacteur en chef du British Medical Journal et rédacteur du Bulletin de l’Organisation mondiale de la santé. (source)
Il est également important de souligner que ces « vérificateurs de faits » indépendants travaillent avec Facebook, qui à son tour travaille avec le gouvernement. Le dénonciateur de la NSA, Edward Snowden, a fait part de ses réflexions sur la censure à laquelle nous assistons pendant cette pandémie en novembre de l’année dernière, en déclarant ce qui suit :
« En secret, ces entreprises avaient toutes accepté de travailler avec le gouvernement américain bien au-delà de ce que la loi exigeait d’elles, et ce que nous voyons avec cette nouvelle poussée de censure est vraiment une nouvelle direction dans la même dynamique. Ces entreprises ne sont pas obligées par la loi de faire presque tout ce qu’elles font actuellement, mais elles vont au-delà, pour, dans de nombreux cas, augmenter la profondeur de leur relation (avec le gouvernement) et la volonté du gouvernement d’éviter d’essayer de les réglementer dans le contexte de leurs activités souhaitées, qui est en fin de compte de dominer la conversation et l’espace d’information de la société mondiale de différentes manières… Ils essaient de vous faire changer votre comportement.
Si vous n’êtes pas à l’aise à l’idée de laisser le gouvernement déterminer les limites d’un discours politique approprié, pourquoi suppliez-vous Mark Zuckerberg de le faire ?
Je pense que la réalité est que… ce n’est pas vraiment une question de liberté d’expression, et ce n’est pas vraiment une question de protection des personnes contre le mal… Je pense que ce que vous voyez, c’est qu’Internet est devenu le moyen de communication de masse de facto. Cela représente l’influence, qui représente le pouvoir, et ce que nous voyons, c’est que nous voyons un grand nombre de tribus différentes se chamailler pour essayer de prendre le contrôle de cet instrument de pouvoir. »
Ce que nous voyons, c’est une tendance croissante à faire taire les journalistes qui disent des choses qui sont minoritaires.
Cela nous amène à nous demander si cette « vérification des faits » concerne réellement la vérification des faits ? Ou y a-t-il autre chose qui se passe ici ?
Vous pouvez lire ci-dessous un extrait de l’article de Clarke qui illustre le fonctionnement de la vérification des faits et le problème que pose le fait de suivre la science. Il est très gratifiant de constater que de plus en plus de chercheurs arrivent à ces conclusions.
” Comment fonctionne la vérification des faits
Ces dix dernières années ont été marquées par une course aux armements entre les utilisateurs qui colportent de la désinformation (intentionnellement conçue pour induire en erreur) ou partagent involontairement des informations erronées (dont les utilisateurs ne se rendent pas compte qu’elles sont fausses) et les plateformes de médias sociaux qui se voient chargées de les contrôler, qu’elles le veuillent ou non.
Lorsque le BMJ a interrogé Facebook, Twitter et YouTube (qui appartient à Google), tous ont souligné leurs efforts pour supprimer les contenus potentiellement dangereux et pour diriger les utilisateurs vers des sources d’information faisant autorité sur le covid-19 et les vaccins, notamment l’Organisation mondiale de la santé et les Centres américains de contrôle et de prévention des maladies. Bien que leurs politiques de modération diffèrent légèrement, les plateformes suppriment généralement ou réduisent la circulation des contenus qui contestent les informations données par les autorités sanitaires telles que l’OMS et les CDC ou diffusent de fausses allégations sanitaires considérées comme nuisibles, notamment des informations erronées sur les dangers des vaccins.
Mais la pandémie a donné lieu à une mosaïque changeante de critères employés par ces entreprises pour définir les limites de la désinformation. Cela a donné lieu à des revirements frappants : au début de la pandémie, les messages affirmant que les masques contribuaient à empêcher la propagation du covid-19 étaient qualifiés de « faux » ; aujourd’hui, c’est le contraire, ce qui reflète l’évolution du débat universitaire et des recommandations officielles.
Twitter gère sa vérification des faits en interne. Mais Facebook et YouTube s’appuient sur des partenariats avec des vérificateurs de faits tiers, réunis sous l’égide de l’International Fact-Checking Network – un organisme non partisan qui certifie d’autres vérificateurs de faits, dirigé par le Poynter Institute for Media Studies, une école de journalisme à but non lucratif de St Petersburg, en Floride. Parmi les principaux donateurs de Poynter figurent le Charles Koch Institute (un organisme de recherche en politique publique), le National Endowment for Democracy (une agence gouvernementale américaine) et le Omidyar Network (une « société d’investissement philanthropique »), ainsi que Google et Facebook. Poynter possède également le journal Tampa Bay Times et le célèbre vérificateur de faits PolitiFact. Le Poynter Institute a décliné l’invitation du BMJ à faire des commentaires pour cet article.
Pour le contenu scientifique et médical, l’International Fact-Checking Network fait appel à des organismes peu connus tels que SciCheck, Metafact et Science Feedback. Health Feedback, une filiale de Science Feedback, sélectionne des scientifiques pour rendre son verdict. En utilisant cette méthode, il a qualifié de « trompeur » un article d’opinion du Wall Street Journal prédisant que les États-Unis auraient une immunité collective d’ici avril 2021, écrit par Marty Makary, professeur de politique et de gestion de la santé à l’université John Hopkins de Baltimore (Maryland). Cela a incité le journal à publier une réfutation intitulée « Fact checking Facebook’s fact checkers » (Vérification des faits par les vérificateurs de faits de Facebook), affirmant que la notation était « une contre-opinion déguisée en vérification des faits ». Makary n’avait pas présenté son argument comme une affirmation factuelle, selon l’article, mais avait fait une projection basée sur son analyse des preuves.
Un porte-parole de Science Feedback indique au BMJ que, pour vérifier les affirmations, il sélectionne des scientifiques sur la base de « leur expertise dans le domaine de l’affirmation/article ». Ils expliquent que « les rédacteurs de Science Feedback commencent généralement par rechercher la littérature universitaire pertinente et identifient les scientifiques qui ont rédigé des articles sur des sujets connexes ou qui possèdent l’expertise nécessaire pour évaluer le contenu ».
L’organisation demande ensuite aux scientifiques sélectionnés de peser directement ou recueille les affirmations qu’ils ont faites dans les médias ou sur les médias sociaux pour rendre un verdict. Dans le cas de l’article de Makary, elle a identifié 20 scientifiques pertinents et a reçu les commentaires de trois d’entre eux.
« Suivre la science »
La nature litigieuse de ces décisions est en partie due à la façon dont les plateformes de médias sociaux définissent les concepts glissants de désinformation et d’information erronée. Cette décision s’appuie sur l’idée d’un consensus scientifique. Mais certains scientifiques affirment que cela étouffe les opinions hétérogènes, renforçant ainsi l’idée fausse que la science est un monolithe.
Cette idée est résumée par ce qui est devenu un slogan pandémique : « Suivez la science ». David Spiegelhalter, président du Winton Centre for Risk and Evidence Communication de l’université de Cambridge, qualifie ce slogan d’« absolument horrible », affirmant que, derrière des portes closes, les scientifiques passent leur temps à se disputer et à être en profond désaccord sur des choses assez fondamentales.
Il déclare : « La science n’est pas là pour vous dire quoi faire ; elle ne devrait pas l’être. Je la vois bien plus comme une personne qui marche à côté de vous en marmonnant, en faisant des commentaires sur ce qu’elle voit et en faisant des suggestions provisoires sur ce qui pourrait se passer si vous prenez un chemin particulier, mais elle n’est pas aux commandes ».
Le terme « désinformation » pourrait lui-même contribuer à aplanir le débat scientifique. Martin Kulldorff, professeur de médecine à la Harvard Medical School de Boston (Massachusetts), a été critiqué pour son point de vue sur le confinement, qui se rapproche de la stratégie plus souple de sa Suède natale. Il affirme que les scientifiques qui expriment des opinions non orthodoxes pendant la pandémie craignent de faire face à « diverses formes de calomnie ou de censure […] ils disent certaines choses mais pas d’autres, parce qu’ils pensent que cela sera censuré par Twitter, YouTube ou Facebook ». Cette inquiétude est aggravée par la crainte que cela puisse affecter le financement des subventions et la capacité à publier des articles scientifiques, explique-t-il au BMJ.
L’idée binaire selon laquelle les affirmations scientifiques sont soit correctes soit incorrectes a alimenté la division qui a caractérisé la pandémie. Samantha Vanderslott, sociologue de la santé à l’université d’Oxford, au Royaume-Uni, a déclaré à Nature : « Dénoncer les fausses histoires peut améliorer votre profil. » Dans le même article, Giovanni Zagni, directeur du site web italien de vérification des faits Facta, fait remarquer que « vous pouvez construire une carrière » en devenant « une voix respectée qui lutte contre les mauvaises informations ».
Van der Linden compare cette situation à la façon dont Donald Trump a utilisé le terme « fake news » pour faire taire ses détracteurs. Il ajoute : « Je pense que l’on retrouve un peu la même chose avec le terme ” désinformation “, lorsqu’il y a des données scientifiques avec lesquelles on n’est pas d’accord et qu’on les qualifie de désinformation. »
Le site Web de Health Feedback indique qu’il ne sélectionnera pas de scientifiques pour vérifier les affirmations s’ils ont sapé leur crédibilité en « propageant des informations erronées, que ce soit intentionnellement ou non ». En pratique, cela pourrait créer une situation kafkaïenne dans laquelle les scientifiques ne pourraient pas donner leur avis dans le cadre du processus de vérification des faits s’ils ont exprimé une opinion que Facebook a qualifiée de désinformation. L’effet de chambre d’écho est renforcé par le fait que Health Feedback vérifie parfois les affirmations en regardant ce que les scientifiques ont dit sur Twitter ou dans les médias.
La « vérité » scientifique
Selon M. Van der Linden, il est important que les gens comprennent que, dans le domaine scientifique, « il y a de l’incertitude, il y a des débats, il s’agit d’accumuler des connaissances au fil du temps et de réviser nos opinions au fur et à mesure ». Un débat sain permet de séparer le bon grain de l’ivraie. Jevin West, professeur associé à l’école d’information de l’université de Washington à Seattle, affirme que les plateformes de médias sociaux devraient donc être « extrêmement prudentes lorsqu’il s’agit de débats impliquant la science. » Il explique : « L’institution de la science a développé ces normes et ces comportements pour qu’ils soient autocorrectifs. Donc, que [les plateformes de médias sociaux] s’immiscent dans cette conversation, je pense que c’est problématique. »
Les experts qui ont parlé au BMJ ont souligné la quasi-impossibilité de faire la distinction entre une opinion scientifique minoritaire et une opinion objectivement incorrecte (désinformation). Spiegelhalter affirme que cela constituerait un difficile « jugement légaliste sur ce que serait une opinion scientifique raisonnable… . J’ai mes propres critères que j’utilise pour décider si je pense que quelque chose est trompeur, mais je trouve cela très difficile à codifier ».
D’autres scientifiques craignent que, si cette approche de la désinformation scientifique survit à la pandémie, le débat scientifique ne soit soumis de manière inquiétante aux impératifs commerciaux. Vinay Prasad, professeur associé à l’université de Californie San Francisco, a fait valoir sur le site MedPage Today : « Le risque est que la myriade d’acteurs de la biomédecine, qu’il s’agisse de grandes ou de petites entreprises biopharmaceutiques ou d’appareils [médicaux], fassent part de leurs préoccupations aux médias sociaux et aux sociétés de presse. Sur un sujet tel que les médicaments anticancéreux, une petite poignée de personnes critiquant l’approbation d’un nouveau médicament peut être dépassée de 10 pour 1 par les principaux leaders d’opinion qui travaillent avec l’entreprise ». Ainsi, la majorité qui s’exprime le plus fort, le plus visiblement et avec le plus grand nombre de personnes en ligne, peut être jugée « correcte » par le public – et, comme le dit le dicton, « l’histoire est écrite par les vainqueurs ».
Les entreprises de médias sociaux sont encore en train d’expérimenter la nouvelle série de mesures introduites depuis l’année dernière et pourraient adapter leur approche. Selon M. Van der Linden, les discussions qu’il a eues avec Facebook ont porté sur la manière dont la plateforme pourrait contribuer à faire apprécier le fonctionnement de la science, « pour diriger les gens vers des contenus qui les éduquent sur le processus scientifique, plutôt que d’étiqueter quelque chose comme vrai ou faux ».
Ce débat se joue dans le cadre d’une lutte idéologique plus large, où l’idéal de « vérité » est de plus en plus placé au-dessus d’un « débat sain. » Kulldorff déclare : « Supprimer des choses en général, je pense que c’est une mauvaise idée. Parce que même si une chose est mauvaise, si vous la supprimez, il n’y a plus de possibilité d’en discuter. » Par exemple, bien qu’il soit favorable à la vaccination en général, les personnes ayant des craintes ou des doutes sur les vaccins utilisés ne devraient pas être réduites au silence dans les espaces en ligne, dit-il. « Si nous n’avons pas un débat ouvert au sein de la science, alors cela aura d’énormes conséquences pour la science et la société. »
Certains craignent que cette approche ne finisse par saper la confiance dans la santé publique. Selon M. West, aux États-Unis, la confiance dans le gouvernement et les médias est en baisse. Il explique : « La science est encore l’une des institutions les plus fiables, mais si vous commencez à marquer et à fermer la conversation au sein de la science, pour moi, c’est encore pire que la publication même de ces articles individuels. » ”
yogaesoteric
21 juillet 2021