Une IA « journaliste » réécrit les nouvelles pour éliminer les préjugés

 

Vous voulez que vos nouvelles soient livrées avec l’indifférence glaciale d’un robot ? Vous voudrez peut-être mettre en favoris le site nouvellement lancé Knowhere News. Knowhere est une startup qui combine des technologies d’apprentissage machine et des journalistes humains pour fournir les faits sur des sujets d’actualité populaires.

Voici comment ça marche. Tout d’abord, l’intelligence artificielle (IA) du site choisit une histoire basée sur ce qui est populaire sur Internet à l’heure actuelle. Une fois qu’elle a choisi un sujet, elle consulte plus d’un millier de sources d’information pour recueillir des détails. Sites de gauche, sites de droite – l’IA les regarde tous.

Ensuite, l’IA écrit sa propre version « impartiale » de l’histoire à partir de ce qu’elle trouve (parfois 60 secondes seulement sont suffisantes). Cette prise de vue de l’actualité contient les faits les plus fondamentaux, l’IA s’efforçant d’éliminer tout biais potentiel. L’IA tient également compte de la « fiabilité » de chaque source, ce que les co-fondateurs de Knowhere ont déterminé à l’avance. Cela permet de s’assurer qu’un site qui jouit d’une excellente réputation de précision n’est pas éclipsé par un site qui joue un peu vite et sans tenir compte des faits.

Pour certaines des histoires les plus politiques, l’IA produit deux versions supplémentaires intitulées « Gauche » et « Droite ». C’est exactement ce qu’on peut attendre de leurs gros titres :

– Impartialité : « Les États-Unis ajouteront une question sur la citoyenneté au recensement de 2020 »
– Gauche : « La Californie poursuit l’administration de Trump sur la question de la citoyenneté du recensement »
– Droite : « Les libéraux s’opposent à l’inclusion de la question de la citoyenneté dans le recensement de 2020 »

Certaines histoires controversées mais pas nécessairement politiques reçoivent une tournure « positive » et « négative » :

– Impartiale : « Facebook scanne les choses que vous envoyez sur messager, admet Mark Zuckerberg »
– Positive : « Facebook révèle qu’il scanne Messenger à la recherche de contenu inapproprié »
– Négative : « Facebook admet espionner Messenger, ‘scanner’ des images privées et des liens ».

Même les images utilisées avec les histoires reflètent parfois la partialité du contenu. L’histoire « Positive » sur Facebook met en scène le PDG Mark Zuckerberg souriant, tandis que l’histoire « Négative » lui donne l’impression que son chien vient de mourir.

L’IA de Knowhere ne met pas non plus les journalistes au chômage.

Le rédacteur en chef et cofondateur Nathaniel Barling a déclaré à Motherboard qu’une paire de rédacteurs humains examinent chaque article. Cela vous donne l’impression de lire quelque chose écrit par un journaliste, et non pas un chatbot Twitter. Ces modifications sont ensuite réinjectées dans l’IA, ce qui l’aide à s’améliorer au fil du temps. Barling lui-même approuve ensuite chaque histoire avant qu’elle ne soit mise en ligne. « La responsabilité s’arrête avec moi », a-t-il dit à Motherboard.

Cet élément humain pourrait être le principal défaut de la technologie. Comme on l’a vu avec d’autres IA, elles ont tendance à s’attaquer aux préjugés de leurs créateurs, de sorte que Barling et ses rédacteurs en chef devront être aussi impartiaux que possible (littéralement) pour que l’IA conserve son impartialité.

Knowhere vient de recueillir 1,8 million de dollars en financement d’amorçage, de sorte qu’il est clair que les investisseurs pensent qu’il est possible de changer la façon dont on obtient les nouvelles. Mais sera-t-il en mesure d’atteindre suffisamment de personnes (et les bonnes personnes) pour vraiment avoir de l’importance ?

L’impartialité est l’argument de vente de Knowhere, donc si vous pensez que cela ressemble à un site que vous voulez visiter, vous êtes probablement quelqu’un qui accorde déjà de l’importance à l’impartialité dans les nouvelles.

Le problème, c’est que certaines personnes sont parfaitement heureuses d’exister dans une chambre d’écho où elles reçoivent des nouvelles d’une source qui reflète ce qu’elles pensent. Et si vous êtes une de ces sources d’information, vous ne voulez pas aliéner votre public, n’est-ce pas ? Donc, vous continuez à nourrir les mêmes lecteurs confortables avec les mêmes histoires biaisées.

Ce ne serait pas une si grande affaire si le statu quo des médias ne faisait pas des ravages dans la société, la démocratie et la planète.

Donc, des histoires impartiales écrites par une IA. Plutôt chouette ? Bien sûr. Mais la société change ? On aura probablement besoin de plus qu’un algorithme intelligent pour cela.

 

yogaesoteric
3 octobre 2018

Spune ce crezi

Adresa de email nu va fi publicata

Acest sit folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More