Comprendre le phénomène des « fake news » (1)

Spirale du silence, tyrannie des agissants et Pensée tribale : « La langue des dictateurs » (comment les élites bernent le peuple)

Fake News, Post-Truth, Filter Bubble, toute puissance des algorithmes, voilà, parmi d’autres, quelques-unes des expressions qui semblent caractériser le plus le rapport au numérique.

Après le lancement de l’initiative assez étonnamment controversée du Décodex du site Le Monde, a sonné   l’heure de la mobilisation face aux Fake News en France, avec comme contexte l’élection présidentielle qui suivait, et en mobilisant les grandes plateformes (Facebook et Google) avec l’aide de journalistes et de sites de presse, comme a expliqué Le Monde et Les Echos :

– le 27 février 2017 et jusqu’à la fin de l’élection présidentielle Google a lancé « Crosscheck », une plateforme sur laquelle les internautes ont pu « signaler » des informations douteuses ou poser des questions sur un sujet, et différentes rédactions (l’AFP, Les Echos, Le Monde, France Télévisions, La Provence, …) ainsi que des étudiants en journalisme mais également « plusieurs sociétés de technologies » (sic) ont pu faire du debunking ou du fact-checking ciblé.

– Facebook de son côté, après avoir annoncé des modifications sur son algorithme visant à atténuer certains effets de personnalisation, tout en état partenaire du projet « Crosscheck », a lancé son propre outil baptisé « CrowdTangle » en collaboration avec « 8 rédactions partenaires » (Le Monde, AFP, BFM-TV (sic), Franceinfo, France Médias Monde, L’Express, Libération et 20 Minutes). Là encore c’était aux internautes de « signaler » les informations douteuses, qui ont été analysé par lesdites rédactions partenaires et si au moins 2 d’entre elles la jugait effectivement fausse ou douteuse, l’info s’est vu ajouté un petit pictogramme et il a été dans certains cas possible d’accéder à un article correctif. Une information ainsi repérée et identifiée par un pictogramme n’a pu plus, en outre, bénéficier de publicité (et donc a dû voir sa portée son « reach ») diminuer.

Comme « média », « le » numérique tel qu’en tous cas il prend forme au sein des gigantesques écosystèmes de services ou plateformes que sont Google, Facebook et quelques autres, ce numérique-là dispose d’un certain nombre d’invariants qui sont autant de fonctions et de caractérisations précises de ses modes d’agir et qui façonnent en retour la manière dont on interagisse avec lui.

4 invariants fondamentaux

Parmi ces invariants on pourra par exemple citer la caractérisation précise que Danah Boyd propose des réseaux sociaux autour de 4 phénomènes que sont les audiences invisibles (on ne sait pas si les gens à qui l’on s’adresse sont là au moment où l’on parle), la reproductibilité, la searchability (capacité à être recherché / retrouvé) et la persistance (dans le temps). Les informations (vraies ou fausses) et les régimes de vérité caractéristiques de chaque plateforme sont pour une large part très dépendants de ces 4 paramètres fondamentaux. Juste un exemple : si certaines Fake News se propagent rapidement c’est parce qu’une information que l’on sait douteuse et que l’on veut partager, « pour rire », avec uniquement des amis que l’on sait en capacité d’en lire le second degré, pourra être vue et reproduite par d’autres amis qui, eux, ne détecteront pas ledit second degré.

Et puis il y a tout … le reste

Et le reste c’est l’essentiel. L’essentiel ce sont les biais cognitifs, culturels et sociologiques. Nos biais cognitifs (culturels et sociologiques) d’abord, ceux qui n’ont absolument rien à voir avec les plateformes ou avec le numérique mais que les plateformes ou le numérique permettent souvent « d’augmenter » avec un simple effet de corrélation ; et puis les biais cognitifs (culturels et sociologiques) directement reliés au numérique ou aux plateformes avec, cette fois, un lien de causalité directe.

Ce billet n’a pas d’autre objectif que de vous permettre d’y voir un peu plus clair dans la diversité et les enjeux de ces différents biais cognitifs, souvent convoqués un peu « en vrac » dès que l’on évoque, justement, les problèmes liés aux plateformes, aux Fake News, à la post-vérité et autres bulles de filtre. C’est parti.

1. Spirale du silence et tyrannie des agissants.

La spirale du silence est une théorie sociologique qui dit la chose suivante :

« [L’individu] peut se trouver d’accord avec le point de vue dominant. Cela renforce sa confiance en soi, et lui permet de s’exprimer sans réticence et sans risquer d’être isolé face à ceux qui soutiennent des points de vue différents. Il peut, au contraire, s’apercevoir que ses convictions perdent du terrain ; plus il en sera ainsi, moins il sera sûr de lui, moins il sera enclin à exprimer ses opinions. »

Dans le premier cas (accord avec le point de vue dominant), et si l’on fait partie de ceux qui ne partagent justement pas le point de vue dominant, on dira trivialement qu’ils « hurlent avec les loups ».

Dans le second cas (risque d’être isolé), la pression sociale conduit donc à s’enfermer dans une spirale du silence.

La tyrannie des agissants est un phénomène décrit par Dominique Cardon, qui explique la chose suivante :

« On est tous égaux a priori, mais la différence se creuse ensuite dans la mesure de nos actes, entre ceux qui agissent et ceux qui n’agissent pas. Internet donne une prime incroyable à ceux qui font. Et du coup, il peut y avoir une tyrannie des agissants. »

Or il se trouve que fréquemment, avec les effets d’écho et de viralité spécifiques aux environnements numériques, la tyrannie des agissants amplifie et accélère les possibles spirales de silence sur certains sujets de société, permettant alors parfois de faire complètement basculer l’opinion.

Un exemple assez simple est celui de l’élection de Donald Trump et de ses thèmes de campagne (racistes, sexistes, misogynes, etc.). Sur ces questions-là, l’effet « tyrannie des agissants » a commencé par jouer : il n’y a pas beaucoup plus de gens racistes, sexistes, misogynes que de gens qui ne sont ni racistes, ni sexistes ni misogynes, c’est même a priori plutôt l’inverse. Sauf que ce sont les premiers qui s’expriment le plus (tyrannie des agissants). Et que du coup ils apparaissent comme les plus nombreux, forçant alors ceux qui sont supérieurs en nombre mais s’exprimant beaucoup moins à entrer dans leur spirale du silence. On se tait devant la parole raciste, sexiste ou misogyne parce que l’on a l’impression que c’est cette parole qui est le point de vue dominant. Et si l’on a cette impression c’est en partie lié à l’environnement numérique qui la fait éprouver. Car « dans » l’écosystème de Facebook ou de Google (souvenez-vous de ce qu’il se passe lorsque l’on demande à Google si l’holocauste a vraiment existé), cette parole déjà portée par la tyrannie des agissants, bénéficie en outre d’une prime à la visibilité : parce qu’elle est la plus clivante, la plus commentée et partagée et donc la plus « engageante » (au sens de l’engagement mis en avant par Facebook).

Dans un environnement entièrement déconnecté de tout paramètre numérique (une réunion de famille, une réunion publique) ces phénomènes sont aussi observables. Ainsi certaines personnes prennent plus facilement la parole que d’autres et sont immédiatement considérés comme autant de leaders naturels puisqu’ils « agissent » le plus. De la même manière, on vous laisse aisément imaginer la spirale de silence dans laquelle se trouverait pris un électeur du Parti Communiste à un meeting du Front National. Mais dans le « réel », cette tyrannie des agissants ou ces effets de spirale de silence sont immédiatement rationalisables et quantifiables par l’expérience, de manière empirique directe. On « voit » la totalité des gens présents à ce meeting, et dans cette totalité on mesure « à vue d’œil » qu’on ne partage pas les mêmes idées ou les mêmes codes vestimentaires que la plupart d’entre eux.

A l’échelle d’environnements numériques (« sur » Google, Facebook, Twitter, ou d’autres), à ces deux effets (spirale de silence et tyrannie des agissants) s’en ajoute au moins un troisième : les audiences invisibles décrites par Danah Boyd. Il m’est donc doublement impossible de « voir » quelle est la réalité sociologique, idéologique de la communauté dans laquelle on s’exprime puisque précisément on ne voit pas les gens auxquels on parle ou qui parlent autour de soi. Et si on dit « doublement » impossible c’est parce qu’un autre paramètre intervient qui est celle fois celui du déterminisme algorithmique (qu’on l’appelle bulle de filtre ou autrement, peu importe, si l’existence d’une « bulle de filtre » est contestable et contestés dans son ampleur et ses modalités, en revanche nul ne conteste qu’il existe un déterminisme algorithmique) déterminisme algorithmique qui, pour des raisons diverses et changeantes va favoriser et surexposer certains points de vue et en minorer d’autres.

Donc une sorte de cake de biais cognitifs et comportementaux composé de 4 étages : tout en bas la tyrannie des agissants, juste au-dessus, comme causalité effective, la spirale du silence, au-dessus d’elle, les audiences invisibles et tout en haut la bulle de filtre ou en tout cas le filtrage algorithmique.

2. Pensée tribale

La « tyrannie des agissants » s’appuie elle-même sur une dichotomie plus profonde entre « endogroupe » et « exogroupe » que l’on nomme également « la pensée tribale ». On appartient à une tribu (tribu sociologique, tribu d’opinions) et comme l’explique très bien Samuel Veissière sur InternetActu :

« La plupart de nos intuitions sont acquises socialement et associées aux valeurs de notre tribu, ou endogroupe : nous développons alors une méfiance intuitive qui tourne facilement à la haine pour tous les autres dans notre exogroupe. »

L’approche anthropologique, poursuit-il, fait qu’à certaines étapes de la vie, on change d’endogroupe, sans nécessairement en avoir immédiatement conscience et que chaque communauté dispose toujours de ses propres endo et exo-groupes qui s’affrontent plus ou moins violemment sur certains sujets.

L’autre point clé est celui qui veut qu’on ait tendance à « ignorer le contexte au sein duquel nous formons nos opinions. » A leur échelle, les plateformes de médias sociaux viennent superposer à ces compositions sociales endo ou exo-gamiques, d’autres (re)compositions sociales communautaires, supposément affinitaires, mais en réalité intangibles car invisibles dans les logiques de constitution qui les façonnent, et biaisées dans la manière dont elles vous « contraignent » à élargir systématiquement les groupes et les réseaux d’amitiés qui constitueront vos sociabilités (de manière certes « douce » mais contrainte tout de même).

On a donc ici un autre « cake » composé cette fois de deux étages : celui de la « tribu » réelle dans laquelle on forge ses opinions et des endo et exogroupes qui constituent les lignes d’affrontement et de conflit au sein de ladite tribu, et les communautés tribales artificiellement augmentées et construites qui participent de votre rapport à l’information et aux autres au sein des grande plateformes de réseaux sociaux. Voilà ce qui constitue la variable « sociologique » ou « anthropologique » de ce que l’on appelle commodément – et assez inexactement – la bulle de filtre, l’autre partie de ladite bulle étant constituée par les différents déterminismes algorithmiques.

3. Heuristiques de jugement

Reproductibilité, audiences invisibles, « searchability », persistance, spirale du silence, tyrannie des agissants, pensée tribale, endogroupes et exgroupes sont autant de facteurs et de biais qui, même s’il renvoient au rapport à l’information d’un individu, se travaillent d’abord à l’échelle du groupe et/ou des dispositifs techniques (plateformes, algorithmes).

A l’échelle de l’individu c’est vers les différentes « heuristiques de jugement » qu’il faut se tourner. Une heuristique de jugement c’est « un raccourci cognitif utilisé par les individus afin de simplifier leurs opérations mentales dans le but de répondre aux exigences de l’environnement », des opérations mentales « intuitives, rapides, automatiques ». Cela vous permet de gagner du temps mais cela est surtout la cause de nombreux biais et erreurs dans vos prises de décision.  Et des raccourcis cognitifs il y en a … plein.

Avant de dresser la liste de ceux (les biais) et celles (les heuristiques) qui participent prioritairement aux débats actuels sur #FakeNews, #FilterBubble et autres #PostTruth (pour tous les autres, allez voir l’article remarquable de Wikipedia), un point clé est que l’humeur, votre humeur, joue un rôle fondamental dans la mise en place de ces heuristiques.

Il a par exemple été démontré que la joie, davantage que la tristesse, favorisait la mise en branle de ces heuristiques. Or, à l’échelle des plateformes sociales, on sait deux choses : d’une part, à l’échelle de la psychologie individuelle, que certains sentiments se propagent plus facilement que d’autres et qu’il s’agit de la colère, de l’indignation, du sentiment d’injustice. Et d’autre part, à l’échelle du modèle économique des plateformes, que c’est précisément la joie (ou l’humeur joyeuse) qui va nous installer dans un contexte cognitif facilitant, par exemple, les achats pulsionnels, ou nous rendant en tout cas plus réceptifs aux différentes sollicitations publicitaires. D’où l’intérêt et l’ingéniosité toute particulière que Facebook déploie pour tester et manipuler notre humeur. D’où cette alternance lancinante sur votre mur – lancinante mais variable en fonction de votre propre humeur – qui va superposer les nouvelles les plus désespérantes sur l’état du monde à des photos de chatons trop mignons.

Lisez la deuxième partie de cet article

yogaesoteric
1 décembre 2019

Spune ce crezi

Adresa de email nu va fi publicata

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More