Comprendre le phénomène des « fake news » (2)

Lisez la première partie de cet article

a) L’erreur fondamentale d’attribution

Comme le rappelle encore Samuel Veissière :

« Nous avons une tendance intuitive vers l’ignorance du contexte, puis nous sommes automatiquement biaisés vers la quête d’une causalité humaine, singulière, personnifiée. Ce biais vers la personne s’extrapole facilement à un groupe. C’est la faute de Trump ; ou bien des ploucs, des immigrés ; ou bien encore de
“ l’Israël
” ou de
“ l’Islam
”. Pour éviter ces horreurs, il faut comprendre que l’esprit humain est très inefficace dans sa perception des indices contextuels et situationnels tels que les forces historiques, sociales, et économiques. Il est aussi très inefficace à percevoir ses propres raccourcis mentaux et sa psychologie tribale. »

 

Les exemples cités sont suffisamment flagrants du rôle de facilitation que jouent les réseaux sociaux pour qu’on n’en rajoute pas une couche.


b) Le biais de confirmation et la dissonance cognitive

Probablement le plus « connu » il est à la fois la cause et l’origine de la réalité de la « bulle de filtre ». Avec ou sans algorithmes pour l’y inciter, chacun va avoir tendance à privilégier les informations qui confirment ses propres opinions ou sa vision du monde, et à négliger ou ignorer celles qui les contredisent. Là où la partie « algorithmique » intervient, c’est précisément dans sa capacité statistique à mesurer les opinions passées ou actuelles pour inférer et prévoir de vous exposer à tel ou tel type de contenu permettant de les conforter (et vous laisser barboter dans votre zone de confort cognitive), augmentant d’autant la résistance au changement, et permettant d’atténuer les effets de dissonance cognitive.

Or si le biais de confirmation est si présent dans les comportements sur Facebook c’est aussi parce nulle part davantage qu’au sein de cette plateforme on n’est en permanence soumis à des situations de dissonance cognitive, et que l’équilibre mental impose en quelque sorte le recours à ce biais.


c) L’écho de croyance

Il s’agit cette fois de la capacité à continuer à croire de fausses informations y compris lorsqu’on a pris connaissance de leur fausseté. Cela s’appelle l’écho de croyance et explique pourquoi il est si difficile (et parfois si vain) de « fact-checker » des fausses informations en espérant convaincre ceux qui y avaient initialement cru. De manière anecdotique, cet effet de croyance est un ressort narratif très fréquemment utilisé dans les films américains de « procès », où l’on voit le procureur ou l’avocat balancer un truc dégueulasse sur l’accusé, truc dont il sait qu’il est faux ou qu’il soulèvera une objection retenue par le juge, mais qui n’a d’autre finalité que d’influencer le choix du jury populaire en y installant cet écho de croyance. L’écho de croyance s’appuie lui-même sur le biais de croyance qui fait que nous aurons d’autant plus tendance à « ignorer » les faiblesses ou les erreurs logiques d’un raisonnement que la conclusion correspond à nos propres croyances.

On parle aussi de l’effet retour de flamme (les individus confrontés à des preuves en contradiction avec leur croyance ont tendance à les rejeter et à se refermer davantage sur leur croyance initiale) ou de la persistance des croyances discréditées comme corollaires du biais de confirmation.


d) Le biais d’auto-complaisance

Il s’agit cette fois de la tendance qu’on a à facilement s’attribuer le mérite de ses réussites, aussi facilement que on va attribuer ses échecs à des facteurs extérieurs défavorables. C’est le syndrome classique de l’entraîneur de foot qui vient de perdre un match et explique que l’arbitrage était douteux ou que le terrain était lourd, mais, à l’échelle des réseaux sociaux et des sujets donc on traite dans ce billet, le biais d’auto-complaisance joue souvent à un niveau « méta » dès qu’il est question de débat autour des Fake News, de la bulle de filtre ou du déterminisme algorithmique.

En gros, les « anti » bulle de filtre expliquent que se réfugier derrière un déterminisme algorithmique revient à s’exonérer de sa propre responsabilité (la bulle de filtre = le terrain qui est lourd et l’arbitre qui est nul) alors que les pro bulle de filtre ont tendance à surévaluer notre capacité d’indépendance et de discrimination au regard des déterminismes algorithmiques (la bulle de filtre c’est d’abord les gens, et Facebook et ses algos ne sont rien d’autres que des conditions météo variables qui affectent tout le monde peu ou prou de la même manière, ou des arbitres qui veillent à appliquer des règles que tous les joueurs sont supposés connaître et respecter).


e) L’effet cigogne (ou illusion de corrélation)

L’effet cigogne est ce qui vous conduit à confondre causalité et corrélation. Il tire son nom d’une jolie anecdote qu’on vous livre :

« Dans les communes qui abritent des cigognes, le taux de natalité est plus élevé que dans l’ensemble du pays. Conclusion : les cigognes apportent les bébés ! Voici une explication plus probable : les cigognes nichent de préférence dans les villages plutôt que dans les grandes agglomérations, et il se trouve que la natalité est plus forte en milieu rural que dans les villes. Voilà pourquoi l’on nomme “ effet cigogne ” cette tendance à confondre corrélation et causalité. »

Sa traduction en termes de « Fake News » est double : d’un côté on a de fausses informations qui instrumentalisent sciemment cet effet, qui jouent délibérément sur la zone de flou entre corrélation évidente et causalité apparente, il s’agit alors « simplement » d’une technique de désinformation ou de propagande comme une autre. De l’autre, dans l’empilement et l’affichage de notre mur, la juxtaposition verticale de certaines informations occasionne souvent le fait qu’on va prendre l’une de ces infos comme la conséquence d’une autre la précédant alors qu’elles n’entretiennent entre elles qu’un lointain effet de corrélation.


f) Biais de cadrage


 


Le biais de cadrage c’est la tendance à être influencé par la manière dont un problème est présenté. Il tourne souvent autour de présentations ou d’argumentaires reposant sur des statistiques ou des données chiffrées. Selon le chiffre ou la statistique mise en avant, la décision finale pourra être différente. Le grand classique du biais de cadrage c’est l’exposition par le gouvernement des chiffres du chômage. Chaque fois qu’un gouvernement (de droite ou de gauche) présente ces chiffres, il le fait en soulignant certains aspects ou certaines catégories de chômeurs, et immanquablement l’opposition explique que tout cela est biaisé parce que l’on n’a pas présentée telle ou telle autre catégorie. Là où les réseaux et les plateformes sociales « en rajoutent une couche » sur ce biais de cadrage, c’est dans la manière qu’elles ont de jouer et d’influer sur l’humeur, et ce faisant de changer le « cadre cognitif » qui vous permettrait d’analyser de manière correcte l’information qui nous est présentée.


g) Biais d’ancrage

Il désigne la difficulté à se départir d’une première impression et pousse à se fier à l’information reçue en premier dans une prise de décision. C’est un effet de prime à l’antériorité, indépendamment de la véracité de l’information reçue en premier. Là encore, du côté des plateformes sociales mais aussi et particulièrement des moteurs de recherche, ce biais d’ancrage est une clé de compréhension déterminante.

Sur les moteurs de recherche, l’information qui vous sert de « première impression » c’est le premier résultat affiché par Google. D’où le problème qui se pose lorsqu’il s’agit d’un site expliquant que l’holocauste n’a pas vraiment existé.

A l’échelle des réseaux sociaux ce biais d’ancrage se décline différemment mais revêt une importance tout aussi cruciale puisque l’information qui vous sert de « première impression » est souvent celle qui bénéficie de la plus forte viralité au sein de la plateforme alors même que cette viralité est précisément construite sur un empilement de biais cognitifs facilitant sa propagation. En d’autres termes, les informations qui vous laissent souvent cette fameuse première impression dont il est ensuite si difficile de se départir sont souvent les informations les plus virales et conséquemment les moins fiables ou en tout cas celles qui bénéficient le plus de l’ensemble des biais précédemment décrits. D’où l’importance non pas de stigmatiser le rôle de ces plateformes sociales ou de ces moteurs de recherche mais d’expliquer que leur régime de vérité est celui de l’engagement ou de la popularité et en aucun cas celui d’une quelconque vérité objectivable ou d’une information factuellement vérifiable.


h/ biais de représentativité

Il consiste à porter un jugement à partir de quelques éléments qui ne sont pas nécessairement représentatifs, surs, dit Wikipédia, « des informations personnalisantes plutôt que statistiques ». Et là encore le lien avec réseaux sociaux et moteurs de recherche est clair et évident tant les informations remontées (dans une recherche) ou affichées (sur votre « mur ») relèvent avant tout d’effets de personnalisation.


i/ biais ou heuristique de disponibilité

Selon Wikipédia il désigne « un mode de raisonnement qui se base uniquement ou principalement sur les informations immédiatement disponibles, sans chercher à en acquérir de nouvelle concernant la situation. » Côté moteurs de recherche et réseaux sociaux ce biais peut être instrumentalisé de différentes manières.

D’abord parce que la « délégation de mémoire » et l’activation de cette mémoire de travail stockée dans le Cloud est un élément essentiel de la compréhension fine des écosystèmes connectés comme on a tenté de le montrer notamment dans ce billet : « Total Recall : Silico Transit Memoria Mundi. »

Ensuite parce que sur un sujet donné, le rappel, la réactivation des informations immédiatement disponibles sera contraint par des facteurs non pas objectivables mais une fois de plus liés à des logiques de personnalisation (le plus immédiatement disponible pour une personne suite à une recherche Google ne sera pas nécessairement le plus immédiatement disponible pour quelqu’un d’autre effectuant la même recherche), à des logiques de viralité et à leurs biais intrinsèques (l’information la plus immédiatement disponible est aussi, souvent, l’information bénéficiant du plus fort taux de viralité), et à des logiques d’instantanéité dans lesquelles c’est l’information la plus récente et non la plus complète ou la plus objective qui se trouve rappelée comme immédiatement disponible.


j/ résistance au changement (biais de status quo)

 

La résistance au changement est une attitude mentale qui fait apparaître une nouveauté comme apportant plus de risques que d’avantages possibles. A l’échelle des moteurs et des réseaux sociaux, cette résistance au changement se confond souvent avec le biais de confirmation (cf supra le point b/).


k) effet de faux concensus

C’est, dit toujours Wikipédia :

« La tendance de chacun d’entre nous à surestimer le degré d’accord que les autres ont avec nous (dans leurs opinions, leurs croyances, les préférences, les valeurs et les habitudes). C’est aussi la tendance égocentrique à estimer le comportement d’autrui à partir de notre propre comportement. »

Le lien parfait entre biais de confirmation et l’écho de croyance : si l’on surestime de degré d’accord que les autres ont avec nous c’est parce qu’il est plus facile d’être d’accord avec soi-même qu’avec les autres (biais de confirmation) et c’est aussi parce qu’on préfère souvent continuer de croire à ses jugements personnels même s’ils sont erronés (écho de croyance). Là encore, les déterminismes algorithmiques et la pensée tribale maximisent souvent ces trois biais (concensus, confirmation, croyance).


l/ Illusion de savoir

« Un individu confronté à une situation en apparence identique à une situation commune, pour lui, réagit de façon habituelle, sans éprouver le besoin de rechercher les informations complémentaires qui auraient mis en évidence une différence par rapport à la situation habituelle. Il peut ainsi faire état d’une mauvaise croyance face à la réalité. » Wikipédia

A l’intérieur des plateformes et empêtrés dans différents déterminismes algorithmiques, si l’on se fie à des croyances erronées plutôt que de chercher à recueillir de nouvelles informations, c’est précisément parce que l’on a l’impression d’être en permanence déjà sur-informés. Immergés dans ce qui ressemble à un bain informationnel et qui est avant tout une logique de rentabilité publicitaire, l’illusion de savoir se décline en illusion de comprendre et vient à son tour alimenter nombre d’erreurs fondamentales d’attribution, d’illusions de corrélation, de biais d’ancrage, de représentativité et de disponibilité.


m/ Surconfiance (ou effet Dunning-Kruger)

La « surconfiance », c’est le fait que :

« Les individus les moins qualifié dans un domaine surestiment leurs compétences alors qu’en corollaire, les personnes les plus qualifiées auraient tendance à sous-estimer leur niveau de compétence et penseraient à tort que des tâches faciles pour elles le sont aussi pour les autres. »

A l’échelle des écosystèmes numériques et les logiques participatives des réseaux sociaux, cet effet Dunning-Kruger peut être vu comme le pendant individuel de la spirale du silence et de la tyrannie des agissants qui se jouent à l’échelon collectif. En effet lesdits « agissants », sur la question, par exemple du racisme, de la radicalisation, mais aussi de l’économie, de la politique, etc. sont souvent les moins qualifiés, ou préfèrent en tout cas s’exprimer sur le mode de l’invective plutôt que sur celui de la rationalité argumentative, et ils entraînent donc les moins agissants (parmi lesquels souvent des personnes tout à fait compétentes) à s’enfermer dans une spirale de silence contrainte cette fois non plus par la « peur » de faire dissonance mais par l’impression que chacun est assez intelligent pour voir à quel point le discours de ces agissants est caricatural, partisan et faussé.

Lisez la troisième partie de cet article
 
 
 



yogaesoteric


5 décembre 2019



Spune ce crezi

Adresa de email nu va fi publicata

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More