Facebook utilise l’intelligence artificielle pour prévoir vos actions futures au profit des annonceurs, indique un document confidentiel (1)

 

Depuis que le scandale Cambridge Analytica a éclaté en mars, Facebook a essayé de prendre une position morale sur la vie privée, se démarquant des pratiques sans scrupules de la société de conseil politique britannique. « La protection des données personnelles est au cœur de tout ce que nous faisons », a écrit Paul Grewal, l’avocat général adjoint de Facebook, quelques semaines avant que Mark Zuckerberg, fondateur et PDG, se rende au Capitole pour donner des assurances similaires, en disant aux législateurs : « A tous les niveaux, nous avons la responsabilité, non seulement de développer des outils, mais aussi de veiller à ce que ces outils soient utilisés à bon escient ». Mais, en réalité, un document confidentiel de Facebook examiné par le journal The Intercept, montre que les deux compagnies sont beaucoup plus semblables que ce que le réseau social voudrait vous faire croire.

Ce document récent, qualifié de « confidentiel », expose les grandes lignes d’un nouveau service de publicité qui élargit la façon dont le réseau social vend aux entreprises l’accès à ses utilisateurs et à leur vie. Au lieu de simplement offrir aux annonceurs la possibilité de cibler les gens en fonction de la démographie et des préférences des consommateurs, Facebook offre plutôt la possibilité de les cibler en fonction de leur comportement à venir, de ce qu’ils achèteront et de ce qu’ils penseront. Ces capacités sont le fruit d’un système de prédiction basé sur l’intelligence artificielle, dévoilé pour la première fois par Facebook en 2016 et surnommé « FBLearner Flow ».

Une page du document fait état de la capacité de Facebook à « prédire les comportements futurs », permettant aux entreprises de cibler les gens sur la base de décisions qu’ils n’ont même pas encore prises. Potentiellement, cela pourrait donner à des tiers l’occasion de modifier la trajectoire prévue d’un consommateur. Ici, Facebook explique comment il peut passer au peigne fin toute sa base d’utilisateurs, riche de plus de 2 milliards d’individus, pour en extraire des millions de personnes « à risque », qui pourraient quitter une marque au profit d’un concurrent. Ces personnes pourraient alors être ciblées par des messages publicitaires agressifs qui pourraient anticiper et faire changer complètement leur décision – ce que Facebook appelle « une efficacité marketing renforcée ». Ce n’est pas Facebook qui vous montre des publicités Chevrolet parce que vous avez consulté le site Ford toute la semaine – un truc vieux comme le monde dans la sphère du marketing en ligne – mais plutôt Facebook qui utilise les faits de votre vie pour prédire que, dans un futur proche, vous allez en avoir marre de votre voiture. Facebook appelle ce service « Prédiction de fidélité ».

Facebook explique qu’il peut passer au peigne fin ses 2 milliards d’utilisateurs pour en qualifier des millions de « à risque », susceptibles de passer à une marque concurrente.

Dans l’esprit, la publicité de Facebook par l’intelligence artificielle est proche du profilage « psychographique » controversé des électeurs par Cambridge Analytica, qui utilise les données démographiques banales des consommateurs (ce qui vous intéresse, où vous vivez) pour prédire l’action politique. Mais contrairement à Cambridge Analytica et à ses pairs, qui doivent se contenter des données qu’ils peuvent extraire des interfaces publiques de Facebook, Facebook est assis sur le filon principal, avec un accès sans entrave aux bases de données colossales sur le comportement et les préférences. Un rapport ProPublica de 2016 a trouvé quelques 29.000 critères caractérisant chacun des utilisateurs de Facebook.

Zuckerberg a œuvré à démarquer son entreprise de Cambridge Analytica, dont les actions pour le compte de Donald Trump ont été alimentées par les données de Facebook, disant aux journalistes, lors d’une récente conférence téléphonique, que le réseau social est un gardien attentif de l’information :

« La vaste majorité des données que Facebook connaît de vous, c’est parce que vous avez choisi de les partager. D’accord ? Vous n’êtes pas pistés. Il y a d’autres compagnies de l’Internet, des courtiers en données ou des gens qui pourraient essayer de pister pour vendre des données, mais nous n’achetons pas ni ne vendons… Pour une raison que j’ignore, nous n’avons pas réussi à éradiquer cette idée très répandue, depuis des années, que nous voulions vendre des données aux annonceurs. Ce n’est pas le cas. Ce n’est pas une chose que nous faisons. En fait, cela va à l’encontre de nos propres intérêts. Même si nous voulions le faire, cela n’aurait pas de sens. »

Le document de Facebook fait un geste similaire en faveur de la protection des utilisateurs, soulignant que toutes les données sont « agrégées et rendues anonymes [pour protéger] la vie privée des utilisateurs », ce qui signifie que Facebook loue l’accès à ses données plutôt que de les vendre. Mais cette ligne de défense se contente de jouer sur les mots. Peu importe qui exploite les données brutes de Facebook, le résultat final, que la compagnie s’empresse de monétiser, est une connaissance publicitaire qui touche à votre intimité – désormais emballée et enrichie par le projet d’apprentissage automatique de la compagnie. Et bien que Zuckerberg et compagnie disent techniquement l’exacte vérité en avançant que Facebook ne vend pas vos données, ce qu’ils vendent vraiment est beaucoup plus précieux, le genre de connaissances du 21e siècle qui ne sont accessibles que pour une entreprise aux ressources à peu près illimitées. La réalité est que Zuckerberg a beaucoup plus en commun avec des compagnies comme Equifax et Experian que toute autre entreprise axée sur le consommateur. Facebook est essentiellement un grossiste en données, point final.

Le document ne détaille pas lesquelles des informations des profils utilisateurs de Facebook sont utilisées pour alimenter le système de prédiction, mais il mentionne la géolocalisation, les informations sur les équipements, les détails du réseau Wi-Fi, l’utilisation de vidéos, les affinités et les détails des amitiés, y compris comment un utilisateur est comparable à ses amis. Toutes ces données peuvent ensuite alimenter FBLearner Flow, qui s’en servira essentiellement modéliser une facette de la vie d’un utilisateur, dont les résultats seront vendus à une entreprise cliente. L’entreprise décrit cette pratique comme étant « l’expertise de Facebook en matière d’apprentissage automatique » utilisée pour les « défis fondamentaux de l’entreprise ».

Les experts consultés par The Intercept avancent que les systèmes décrits dans le document soulèvent divers problèmes éthiques, y compris la façon dont la technologie pourrait être utilisée pour manipuler les utilisateurs, influencer les élections ou renforcer le pouvoir des entreprises. « Facebook a l’obligation morale de révéler comment il utilise l’intelligence artificielle pour monétiser vos données, » a déclaré Tim Hwang, directeur de la Harvard-MIT Ethics and Governance of AI Initiative [Initiative Harvard – MIT sur l’éthique et la gouvernance en matière d’intelligence artificielle], même si Facebook a, en réalité, tout intérêt à garder secrète sa technologie. « Le fait de dire aux gens que les prédictions peuvent se produire peut en soi influencer les résultats », a dit M. Hwang.



Les arrivées d’air extérieures sont vues lors d’une visite du nouveau centre de données Facebook le 19 avril 2012 à Forest City, Caroline du Nord.

Facebook a été harcelé de controverses sur les données et de scandales relatifs à la protection de la vie privée d’une forme ou d’une autre – à un degré presque comique – tout au long de ses 14 ans d’histoire. Malgré des excuses répétées d’année en année de la part de la compagnie, rien ne change vraiment. C’est peut-être la raison pour laquelle l’entreprise s’est jusqu’à présent concentrée sur ses utilisations bienveillantes et sympathiques de l’intelligence artificielle, ou IA.

FBLearner Flow a été présenté comme un ensemble de logiciels à usage interne qui aideraient Facebook à s’adapter à vos préférences chaque fois que vous vous connectez. « Beaucoup des expériences et des échanges que les gens ont aujourd’hui sur Facebook sont rendues possibles grâce à l’IA », a écrit Jeffrey Dunn, ingénieur de Facebook, dans un billet d’introduction au sujet de FBLearner Flow.

Interrogé par Stacey Higginbotham de Fortune sur les objectifs à cinq ans de Facebook en matière d’apprentissage automatique, Mike Schroepfer, directeur de la technologie, a déclaré en 2016 qu’il visait à faire que l’IA « crée chacun des moments que vous passez sur le contenu et les personnes avec qui vous voulez le passer ». L’utilisation de cette technologie pour la publicité n’a pas été mentionnée. Un article de TechCrunch 2017 déclarait : « L’intelligence artificielle est l’avenir de la monétisation pour Facebook », mais ne citait les dirigeants de Facebook que de la manière la plus édulcorée : « Nous voulons comprendre si vous êtes intéressé par quelque chose en général, ou bien tout le temps. Certaines choses que les gens font de façon périodique, hebdomadaire ou à un moment précis, et il est utile de savoir comment cela va et vient », a déclaré Mark Rabkin, vice-président de l’ingénierie publicitaire de Facebook. La compagnie a également été vague au sujet de la combinaison d’apprentissage automatique et de la publicité dans un article de 2017 de la revue Wired consacré aux travaux de l’entreprise en matière d’intelligence artificielle, qui faisait allusion aux essais « pour afficher des annonces plus pertinentes » en utilisant l’apprentissage automatique et pour anticiper les annonces auxquelles les consommateurs seraient les plus susceptibles de cliquer, une utilisation bien ancrée de l’intelligence artificielle. Plus récemment, lors de son audition devant le Congrès, M. Zuckerberg a présenté l’intelligence artificielle comme un outil de lutte contre le discours de haine et le terrorisme.

Mais d’après le document, le service enrichi d’intelligence artificielle que Facebook semble offrir va bien au-delà de « comprendre si vous êtes intéressé par quelque chose en général, ou bien tout le temps ». Pour Frank Pasquale, professeur de droit à l’Université du Maryland et chercheur au Yale’s Information Society Project qui se consacre à l’éthique algorithmique, ce type de marketing basé sur de la modélisation comportementale ressemble à une machine à apprendre le « racket de protection ». Comme il l’a dit à The Intercept : « Vous pouvez considérer que Facebook assure une surveillance protectrice [sur] la façon dont les concurrents vont essayer d’attirer des clients… Nous pouvons superviser pour vous et voir quand votre rival essaie de vous piquer quelqu’un, [puis] nous allons intervenir et nous assurer qu’ils restent dans votre camp. »


Lisez la deuxième partie de cet article

 

yogaesoteric
2 juillet 2018

Also available in: English

Leave A Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More