Deepfake, le pouvoir de manipulation de l’IA en un mot

Les progrès en matière d’intelligence artificielle ont vite permis toute sorte de manipulations très réalistes de sons, de vidéos, de photos. Au point d’engendrer un nouveau mot.

 

Le projet de recherche avait fait sensation en mars 2016, notamment sa vidéo de démonstration. Conçu par des étudiants allemands et américains, le programme Face2Face permet de faire dire à une personne apparaissant dans une vidéo quelque chose qu’elle n’a jamais dit, non seulement en remplaçant ses paroles mais aussi en manipulant en temps réel les mouvements de sa bouche et de ses lèvres, en y substituant ceux de la personne qui parle réellement. L’illusion, quasi parfaite, n’appelle que deux réactions : c’est épatant et c’est effrayant.

Ce genre de manipulation se multiplie désormais, à mesure que les outils de l’intelligence artificielle se diffusent. Au point d’avoir suscité la création d’un nouveau mot : « deepfake », la contraction de « deep learning » (les techniques d’IA très performantes les plus utilisées actuellement) et « fake », « faux » en anglais.

Reddit ferme les canaux « deepfake »

Pour être exact, le terme est apparu en décembre 2017 sur le site communautaire Reddit où un contributeur avait réussi à plaquer avec un réalisme confondant le visage de l’actrice Gal Gadot (Wonder Woman) sur le corps d’une actrice porno dans une vidéo X. Le tout par le biais d’outils logiciels accessibles à tous, et non plus à des chercheurs dans leurs laboratoires. Puis un autre utilisateur de Reddit a mis à disposition une application appelée FakeApp dédiée à ces substitutions de visages. La pratique a eu d’emblée un tel succès que le site a fermé les canaux dédiés aux deepfakes en février 2018, ne serait-ce que pour s’éviter des problèmes juridiques, étant donné que les célébrités dont on utilise les visages (Scarlett Johansson, Taylor Swift, Emma Watson…) sont impliquées sans leur consentement.

Mais les travaux de recherche ont continué de creuser le filon. En avril 2017, des étudiants de l’université de Californie à Berkeley ont produit un algorithme capable de transformer un cheval en zèbre dans une vidéo, un paysage d’été en paysage d’hiver, un tableau de Monet ou de Van Gogh en une image photoréaliste, et le tout de manière réversible.

En avril 2018, Nvidia, le fabricant de processeurs graphiques (les GPU) devenu un acteur phare du deep learning, a publié un article de recherche expliquant comment il avait pu créer des visages photoréalistes de célébrités… qui n’existent pas. Les algorithmes mis à contribution ont en effet analysé des milliers de portraits bien réels pour produire des images de synthèse où les éclairages, les grains de peau, les coiffures, les reflets, l’éclat des yeux même, ont peu à envier aux photos promotionnelles de stars du cinéma ou de la musique. Si ce n’est la résolution, les fichiers de Nvidia étant très petits (1024 pixels par 1024). Mais qui doute vraiment qu’arranger ce détail n’est qu’une question de temps ?
 
 



yogaesoteric


15 avril 2019

Also available in: Română

Leave A Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More