Google fait la « guerre algorithmique » pour l’armée américaine
Google met au service de l’armée américaine ses technologies d’intelligence artificielle pour analyser la grande quantité de vidéos produites par ses drones espions. Une collaboration qui soulève un vif mécontentement au sein de la firme.
INTELLIGENCE ARTIFICIELLE. Dans la Silicon Valley, la « peace attitude » a pris un mauvais coup. Une enquête menée par le site américain Gizmodo révèle que Google collabore avec le département de la Défense américaine (DOD) dans un projet d’intelligence artificielle (IA). La nouvelle a suscité l’émoi voire la grogne de nombreux employés de la firme. Et ce d’autant plus que l’utilisation de l’intelligence artificielle dans le domaine militaire inquiète de nombreux scientifiques et experts des technologies à travers le monde. Une centaine d’entre eux ont d’ailleurs lancé en 2017 un appel aux Nations unis pour interdire les armes autonomes. Une initiative menée par Elon Musk, le très médiatique patron de Tesla, et Mustafa Suleyman, cofondateur de Deepmind Technologies, une société spécialisée dans l’IA, passée en 2014 dans le giron d’Alphabet… maison mère de Google.
Des biais importants dans son utilisation
Le projet qui fâche s’appelle Maven, aussi connu sous le nom de Algorithmic Warfare Cross-Functional Team (AWCFT) pour « Équipe interfonctionnelle de guerre algorithmique ». Il s’agit d’un programme lancé en urgence par le DOD en avril 2017 afin d’être très vite opérationnel. L’objectif principal est de développer des technologies d’apprentissage automatique (machine learning) permettant d’analyser le déluge de vidéos collectées par les drones de surveillance de l’armée américaine. Une quantité de données telle qu’elle ne peut être traitée par des humains. D’où la volonté des militaires de confier la tâche à une intelligence artificielle. Concrètement, le système repose sur une technologie de vision par ordinateur capable d’identifier automatiquement des véhicules ou tout autre objet qui intéressent les militaires au sein de 38 catégories. L’outil permet ainsi de suivre les déplacements d’un individu. Il est déployé depuis décembre 2017 dans la lutte contre l’État islamique. Mais pour beaucoup de spécialistes, l’utilisation de l’IA dans ce domaine est dangereuse car elle souffre de biais importants. En 2016, un article sur le site de l’ONG ProPublica explique par exemple que des logiciels utilisés à travers le pays pour prévoir la récidive de criminels à partir de photos, accablent de manière arbitraire les personnes noires.
Google dit réfléchir à des garde-fous
Devant le mécontentement de ses employés, Google rétorque que sa contribution n’est pas directement liée au combat, à l’aspect offensif. Un argument qui n’a pas réussi à rassurer les troupes de la compagnie, selon une source interne interrogée par Gizmodo. D’ailleurs, Eric Schmidt, ancien patron de Google, puis d’Alphabet, a démissionné de son poste en décembre 2017 pour prendre la direction du Defense Innovation Board, un comité d’experts qui conseille le département de la Défense sur les apports de l’intelligence artificielle dans l’armée. Tout en gardant un pied dans la firme de Mountain View en tant que directeur au sein du conseil d’administration. À l’évidence, il sera difficile pour Google de renoncer à cette alliance avec les militaires. En 2017, le département de la Défense américain a dépensé, selon le Wall Street Journal, 7,5 milliards de dollars dans des domaines liés à l’intelligence artificielle. Un marché colossal qui correspond parfaitement au positionnement de la compagnie sur ce créneau. Selon Gizmodo qui a interrogé un porte-parole, Google est conscient du caractère controversé de l’utilisation de sa technologie dans le domaine militaire, mais jure réfléchir actuellement à la mise d’une politique adaptée et de garde-fous. Peut-être pour ne pas faire mentir sa devise historique : « Don’t be evil » que l’on pourrait traduire par « Ne faites pas le mal ».
yogaesoteric
13 octobre 2018