Une faille de sécurité dans les assistants vocaux populaires permet de mener des attaques

 

Beaucoup de gens se sont habitués à parler à leurs appareils intelligents, leur demandant de lire un texte, de jouer une chanson ou de déclencher une alarme. Mais quelqu’un d’autre pourrait aussi leur parler secrètement.

Au cours des deux dernières années, des chercheurs en Chine et aux États-Unis ont commencé à démontrer qu’ils pouvaient envoyer des commandes cachées indétectables pour l’oreille humaines à Siri d’Apple, à Alexa d’Amazon et à Google Assistant. À l’intérieur des laboratoires universitaires, les chercheurs ont pu activer secrètement les systèmes d’intelligence artificielle sur les smartphones et les haut-parleurs intelligents, les faisant passer des appels ou ouvrir des sites web. Entre de mauvaises mains, la technologie pourrait être utilisée pour déverrouiller les portes, acheter des choses en ligne – simplement avec de la musique diffusée à la radio.

Un groupe d’étudiants de l’Université de Californie, Berkeley et Georgetown University ont montré en 2016 qu’ils pouvaient dissimuler des commandes dans des bruits blancs diffusés par haut-parleurs et via des vidéos YouTube pour activer des appareils intelligents ou ouvrir un site Web. Certains de ces chercheurs de Berkeley ont publié un article de recherche qui allait plus loin, disant qu’ils pouvaient intégrer des commandes directement dans des enregistrements de musique ou de texte parlé. Ainsi, alors qu’un auditeur humain entend quelqu’un parler ou qu’un orchestre joue, le haut-parleur Echo d’Amazon peut entendre une instruction d’ajouter quelque chose à votre liste de courses. « Nous voulions voir si nous pouvions le rendre encore plus furtif », a déclaré Nicholas Carlini, un doctorat de cinquième année, étudiant en sécurité informatique à U.C. Berkeley. M. Carlini a ajouté que même s’il n’y avait aucune preuve que ces techniques avaient quitté le laboratoire, il se peut que ce ne soit qu’une question de temps avant que quelqu’un commence à les exploiter. « Mon hypothèse est que les personnes malveillantes emploient déjà des gens pour exécuter cette fonction de hacker via les ondes radio », a-t-il dit.

Ces tromperies illustrent comment l’intelligence artificielle – même si elle fait de grands progrès – peut encore être trompée et manipulée. Les ordinateurs peuvent être trompés en identifiant un avion comme un chat en changeant quelques pixels d’une image numérique, tandis que les chercheurs peuvent faire dévier un véhicule ou accélérer simplement en collant de petits autocollants sur les panneaux de signalisation et en confondant le système de vision du véhicule. Avec les attaques audio, les chercheurs exploitent le fossé entre la reconnaissance vocale humaine et la reconnaissance vocale artificielle. Les systèmes de reconnaissance de la parole traduisent généralement chaque son en une lettre, éventuellement en les compilant en mots et en phrases. En apportant de légères modifications aux fichiers audio, les chercheurs ont pu annuler le son que le système de reconnaissance vocale était supposé entendre et le remplacer par un son qui serait transcrit différemment par les machines tout en étant pratiquement indétectable pour l’oreille humaine.

La prolifération de gadgets activés par la voix amplifie les implications de ces astuces. Smartphones et haut-parleurs intelligents qui utilisent des assistants numériques tels que Amazon Alexa ou Siri d’Apple devraient dépasser le nombre de personnes d’ici 2021, selon le cabinet d’études Ovum. Et plus de la moitié de tous les ménages américains auront au moins une enceinte intelligente d’ici là, selon Juniper Research.

Amazon a déclaré qu’il ne divulguait pas les mesures de sécurité spécifiques, mais il a pris des mesures pour s’assurer que son haut-parleur intelligent Echo soit sécurisé. Google a déclaré que la sécurité est un objectif permanent et que son assistant dispose de fonctionnalités pour atténuer les commandes audio indétectables. Les assistants des deux sociétés emploient la technologie de reconnaissance vocale pour empêcher les dispositifs d’agir sur certaines commandes à moins qu’ils ne reconnaissent la voix de l’utilisateur.

 

yogaesoteric
22 mai 2019

Also available in: Română

Leave A Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More