Facebook utilise l’intelligence artificielle pour prévoir vos actions futures au profit des annonceurs, indique un document confidentiel (2)

Lisez la première partie de cet article 


L’intelligence artificielle est plus ou moins devenue un mot branché comme n’importe quel autre, mais au sens large, elle inclut des technologies comme « l’apprentissage automatique », grâce auquel les ordinateurs apprennent, essentiellement par eux-mêmes, à être de plus en plus efficaces dans des tâches aussi diverses que la reconnaissance faciale et la détection de la fraude financière. Vraisemblablement, FBLearner Flow apprend à être chaque jour plus précis.

 

Facebook est loin d’être la seule compagnie qui s’efforce de transformer les innovations de la recherche sur l’IA en une source de revenus, mais ils sont dans une situation unique. Même Google, avec son emprise sur les recherches sur le web et les e-mails et, également, des budgets illimités, ne dispose pas ce qu’a Zuckerberg : Une liste de 2 milliards de personnes avec ce qu’elles aiment, ce qu’elles pensent et qui elles connaissent. Facebook peut embaucher les meilleurs et les plus brillants des docteurs et dépenser une somme d’argent inépuisable dans la capacité de traitement.

La division IA de Facebook s’est tournée vers différentes techniques d’apprentissage automatique, parmi lesquelles les « Gradient boosted decision trees », ou GBDT [arbres de décision boostés par gradient] qui, selon le document, sont utilisés à des fins publicitaires. Un article de 2017 de la revue Proceedings of Machine Learning Researchdécrit le GBDT comme « une technique d’apprentissage automatique puissante, qui possède un large éventail d’applications commerciales et académiques et produit des résultats de pointe pour de nombreux problèmes complexes d’exploration de données ». Cette technique d’apprentissage automatique est de plus en plus populaire dans l’industrie de l’exploration de données.

Le vif intérêt de Facebook à aider des clients à produire de la valeur à partir des données des utilisateurs contribue peut-être à expliquer pourquoi la compagnie n’a pas condamné ce que Cambridge Analytica a fait avec les données extraites du réseau social – au lieu de cela, l’indignation de Facebook s’est concentrée sur la tromperie de Cambridge Analytica. Grâce à l’équipe de communication de Facebook, le débat a porté sur « l’accès inapproprié » de Cambridge Analytica aux données de Facebook, plutôt que sur les raisons pour lesquelles Cambridge Analytica voulait les données de Facebook au départ. Mais une fois que vous enlevez la question de l’accès et de l’origine, Cambridge Analytica commence à ressembler à la petite sœur de Facebook, en moins ambitieuse.

La capacité à atteindre la population cible a déjà causé des problèmes à Facebook, à de nombreuses reprises, en partie parce que les systèmes publicitaires de la compagnie sont conçus avec un remarquable niveau d’automatisation. Des journalistes de ProPublica ont réussi à envoyer des publicités ciblées à des groupes douteux comme ceux qui se proclament « Jew haters » [ceux qui haïssent les Juifs]. Qu’il s’agisse d’une campagne politique visant à effrayer un certain type d’électeurs indécis, ou de Russes qui tentent simplement de semer la pagaille, la technique publicitaire de Facebook a été utilisée à plusieurs reprises à des fins troublantes, et il reste à savoir si une entité devrait avoir la possibilité de vendre l’accès à plus de 2 milliards d’usagers dans le monde entier. Pendant ce temps, Facebook semble accélérer, plutôt que de modérer, le caractère opaque de son modèle économique. Venant de la part d’une compagnie qui a été vivement critiquée pour son usage d’algorithmes anonymes pour mener ses affaires, le choix de l’intelligence artificielle auto-apprenante pour explorer des données n’a rien de rassurant.

 


Le fait que Facebook propose de vendre sa capacité à prédire vos actions – et votre fidélité – revêt une importance particulière au lendemain de l’élection de 2016, dans laquelle l’équipe numérique de Trump a utilisé le ciblage Facebook pour remporter un succès historique. Facebook travaille régulièrement avec des équipes de campagnes dans le monde entier et se vante de sa capacité d’influencer le taux de participation – une « success story » de Facebook, sur son travail avec le Scottish National Party, décrit la collaboration comme ayant « déclenché un raz-de-marée ». Depuis que Zuckerberg a honteusement nié la capacité de Facebook à influencer les élections, capacité dont Facebook avait auparavant fait la promotion, la compagnie peine se justifier. Tant que Facebook ne reconnaît pas sa capacité d’influence basée sur sa connaissance des gens, est-il normal que l’entreprise poursuive son développement en matière d’influence à partir des prédictions sur les individus ?

Jonathan Albright, directeur de recherche au Tow Center for Digital Journalism de l’Université Columbia, a déclaré à The Intercept que, comme tout algorithme, en particulier ceux de Facebook, le ciblage par l’IA « peut toujours être utilisé comme une arme ». Albright, qui est devenu un détracteur de la capacité de Facebook à canaliser l’influence politique, s’inquiète de la manière dont ces techniques pourraient être utilisées dans le cadre d’élections, en prédisant quelles « personnes… pourraient être poussées à ne pas voter », par exemple. « Une fois qu’ils ont fait cette prédiction, ils ont un intérêt financier à ce qu’elle se réalise. »

Une section du document met en lumière une réussite de Facebook qui a aidé un client à monétiser un groupe ethnique spécifique, bien que la méthode employée – FBLearner Flow ou plus conventionnelle – ne soit pas claire. Facebook a supprimé la possibilité de cibler les groupes ethniques en fin d’année dernière après la publication d’un rapport de ProPublica.

Pasquale, le professeur de droit, a déclaré à The Intercept que le travail de prédiction comportementale de Facebook avait de quoi donner des frissons. Il s’inquiète de la façon dont l’entreprise pourrait transformer les prédictions algorithmiques en « prophéties auto-réalisatrices », car « une fois qu’ils ont fait cette prédiction, ils ont un intérêt financier à ce qu’elle se réalise ». Quand Facebook prédit à un annonceur ce que vous allez faire le mois suivant, il incombe à l’entreprise, soit de faire en sorte que l’événement se produise, soit de montrer qu’elle a réussi à l’empêcher efficacement (ceci dit, comment Facebook pourrait-il assurer à son client que c’est son action qui a changé l’avenir ?).

Les incitations créées par l’IA sont déjà problématiques lorsque la technologie est utilisée pour pousser à l’achat, mais plus encore si elle est utilisée pour un scrutin. Rumman Chowdhury, qui dirige Responsible AI initiative d’Accenture, a souligné le fait que, comme les suggestions de Netflix ou d’Amazon, les prédictions algorithmiques plus ambitieuses pourraient non seulement deviner le comportement d’un utilisateur de Facebook, mais aussi le renforcer : « Les moteurs de recommandation sont incités à vous donner des liens sur lesquels vous cliquerez, pas nécessairement des informations utiles ».

Facebook n’a ni répondu aux questions répétées sur les types de données d’utilisateurs utilisés pour les prédictions comportementales, ni indiqué si cette technologie pourrait être utilisée dans des contextes plus sensibles comme les campagnes politiques ou les soins de santé. Au lieu de cela, l’équipe de relations publiques de Facebook a déclaré que l’entreprise utilise « FBLearner Flow pour gérer différents types de processus » et que « l’apprentissage automatique est un type de processus qu’il peut gérer ». Facebook a nié que FBLearner Flow soit utilisé pour des applications de marketing (une « mauvaise interprétation ») et a déclaré avoir « indiqué publiquement, en toute transparence, l’utilisation de l’apprentissage automatique dans le domaine de la publicité », faisant référence à l’article de 2017 de Wired.

 

Autre problème : la réticence de Facebook d’expliquer comment il monétise l’IA. Albright voit dans cette réticence un symptôme du « conflit inhérent » entre Facebook et la « responsabilité », car « ils ne peuvent tout simplement pas divulguer au public la plupart des détails sur ces sujets car il s’agit du cœur de leur modèle économique ».


Facebook a dit qu’il utilise « FBLearner Flow pour gérer différents types de processus ».

Mais Facebook n’a jamais souhaité divulguer quoi que ce soit hormis les exigences de la Securities and Exchange Commission et sa communication de crise. L’entreprise a prouvé à maintes reprises qu’elle pouvait falsifier les faits, puis, rattrapée par la réalité, s’en sortir avec des déclarations boiteuses à la presse et des messages insipides de Zuckerberg.

Et pourtant, le nombre de personnes dans le monde qui utilisent Facebook (et la trésorerie de l’entreprise) continue d’augmenter. Facebook a joui d’une sorte d’immunité d’image, du moins jusqu’au scandale de Cambridge Analytica. Une chaîne de fast-food qui serait, par exemple, accusée de négligence envers ses clients, ne s’en sortirait sans doute pas indemne. Il est possible que les gens ne se soucient pas assez de leur vie privée pour que leur colère conduise Facebook à changer de façon significative.

Peut-être que suffisamment d’utilisateurs de Facebook se résignent à l’idée d’avoir signé un pacte avec le démon du Big Data, et s’attendent à ce que leur vie personnelle serve à alimenter les algorithmes d’apprentissage automatique publicitaire. Hwang a noté que « nous ne pouvons pas oublier l’histoire de tout cela. La publicité, en tant qu’industrie, depuis des décennies, tournée autour de la prédiction du comportement… des individus et des groupes… C’est en quelque sorte le but de la publicité ». Mais nous ne pouvons pas non plus nous attendre à ce que les utilisateurs de Facebook, ou de toute autre technologie, soient en capacité de décider de ce qui vaut la peine d’être dénoncé et ce qui vaut la peine d’être craint , alors qu’ils sont délibérément maintenus dans un état d’ignorance quasi-totale. Chipotle [une chaîne de restauration rapide] est obligé réglementairement de vous informer précisément sur ce qui vous est servi, et sur les quantités. Facebook n’a pas l’obligation d’expliquer ce qu’il fait exactement de vos données au-delà des révisions successives de sa politique de confidentialité, qui se contente de lister ce que Facebook se réserve le droit de faire. Nous savons que Facebook s’est engagé dans le même genre d’interférence politique, amorale, que Cambridge Analytica parce qu’ils avaient l’habitude de s’en vanter sur leur site Web. Maintenant, les vantardises ont disparu, sans explication, et on est de nouveau dans l’obscurité.

Ainsi, bien que les détails de ce qui est fait de vos données demeurent en grande partie une question de secret commercial pour Facebook, nous pouvons considérer ce qui suit : Mark Zuckerberg affirme que son entreprise a « la responsabilité de protéger vos données, et si nous ne le pouvons pas, nous ne méritons pas d’être à votre service ». D’un autre côté, Zuckerberg dirige une entreprise qui utilise vos données pour alimenter des modèles de prédiction par l’IA, qui seront utilisés pour vous cibler et vous soutirer de l’argent sur la base de ce que vous allez faire à l’avenir. Il semble difficile de concilier ces deux faits – peut-être parce que c’est impossible.
 
 
 
 

yogaesoteric

6 juillet 2018

Spune ce crezi

Adresa de email nu va fi publicata

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More