La technologie Deepfake peut placer des mots dans la bouche de n’importe qui – même la vôtre

 

Saviez-vous qu’il existe une technologie qui peut créer des images de gens qui n’existent pas ? Et saviez-vous qu’il existe une technologie qui peut faire parler ces « gens » ?

On a écrit sur toutes sortes de technologies dystopiques sur l’internet, mais c’est peut-être la plus effrayante à ce jour. Connue sous le nom de « deepfakes » (une combinaison de « deep learning » et « fake ») cette technologie peut être utilisée pour synthétiser des visages humains en utilisant l’intelligence artificielle. Elle est utilisée pour combiner et superposer des images et des vidéos existantes sur des images ou des vidéos sources à l’aide d’une technique d’apprentissage machine connue sous le nom de réseaux antagonistes génératifs (RAG).

La technologie des deepfakes évolue rapidement et les conséquences probables sont troublantes.

La technologie deepfake a déjà été utilisée pour créer des fake news, des canulars malveillants, des vidéos osées de fausses célébrités et des vidéos de vengeance. On sait à quelle vitesse l’Internet peut mettre une personne sous l’angle d’une caméra. Imaginez les possibilités de provoquer des frissons avec ce genre de technologie.

Dans un rapport de février 2019 intitulé ThisPersonDoesNotExist.com utilise l’IA pour générer des faux visages à l’infini, James Vincent soulève des inquiétudes terrifiantes au sujet de cette technologie :

« Comme nous l’avons vu dans les discussions sur les deepfakes (qui utilisent la technologie GAN pour coller les visages des gens sur des vidéos cibles, souvent pour créer des vidéos pornographiques non consensuelle), la capacité de manipuler et de générer des images réalistes à grande échelle va avoir un effet énorme sur la façon dont les sociétés modernes pensent à propos des preuves et de la confiance. Un tel logiciel pourrait également être extrêmement utile pour créer de la propagande politique et des campagnes d’influence.

En d’autres termes, ThisPersonDoesNotExist.com est juste une introduction polie à cette nouvelle technologie. Le réveil brutal arrivera plus tard. »

On dirait que « plus tard » est déjà là :

« Un nouvel algorithme permet aux éditeurs vidéo de modifier les vidéos de têtes parlantes comme s’ils éditaient du texte – copier, coller, ou ajouter et supprimer des mots.

Une équipe de chercheurs de l’Université de Stanford, du Max Planck Institute for Informatics, de l’Université de Princeton et d’Adobe Research a créé un tel algorithme pour éditer des vidéos de têtes parlantes – des vidéos montrant des locuteurs depuis le haut des épaules. »

Les conséquences possibles de cette technologie sont horribles à méditer, mais Melissa Dykes de Truthstream Media l’a fait dans cette vidéo terrifiante.

Il est de plus en plus difficile de discerner les faux de la réalité.

« Notre réalité est de plus en plus manipulée et médiatisée par la technologie, et je pense qu’en tant que race humaine, nous commençons vraiment à le ressentir », a écrit Dykes :

« Nous arrivons à un point de notre société postmoderne où voir et entendre ne seront pas croyables. Le vieux mantra ne signifiera plus rien. Plus nous considérons la sophistication de ces technologies, plus il devient clair que nous ne faisons qu’effleurer la surface pour tenter de comprendre la signification réelle de l’expression “ monde post-vérité ”. Ce n’est pas un hasard si c’était un sujet officiel de la réunion d’élite ultra-secrète Bilderberg de l’an dernier, à laquelle participent régulièrement les principaux acteurs de la Silicon Valley, dont Google et Microsoft. »

À quoi servira la technologie des deepfakes ? Pensez-vous qu’elle finira par devenir impossible d’identifier les deepfakes ? Quelles en seront les conséquences ?

 

yogaesoteric
17 septembre 2019

 

Spune ce crezi

Adresa de email nu va fi publicata

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More