Une vision terrifiante de l’intelligence artificielle
Un rapport d’experts internationaux met en garde contre la multiplication des risques liés aux futurs outils numériques.
Il est encore temps d’agir pour limiter les risques nouveaux engendrés par l’intelligence artificielle (IA). Telle est la seule conclusion optimiste d’un rapport réalisé, en un an, par 26 chercheurs et experts d’universités, d’organisations non gouvernementales et d’associations anglo-saxonnes. Intitulé « L’utilisation malicieuse de l’intelligence artificielle: prévision, prévention et atténuation » (« The malicious use of AI: forecasting, prevention and mitigation »), ce rapport dresse un tableau apocalyptique des dangers de l’intelligence artificielle et de l’apprentissage automatique.
De nouvelles armes numériques seront à la portée d’États voyous ou totalitaires, de cybercriminels et d’organisations terroristes. Surveillance des populations, influence sur des élections démocratiques, utilisation de réseaux de drones et de robots pour des attaques terroristes et même exploitation des failles de systèmes d’intelligence artificielle sont quelques-uns des dangers identifiés. « Il y a de sérieux risques si la technologie est utilisée à de mauvaises fins », résume l’Electronic Frontier Foundation, une association américaine fondée pour la défense de la liberté de parole, qui a contribué au rapport.
Des attaques mieux ciblées
Les experts ont dressé la liste « des attaques que nous verrons bientôt si les défenses adéquates ne sont pas développées ». Il y aura une expansion des risques actuels, de nouveaux dangers et un changement dans leur nature et leur ampleur, notamment car « l’utilisation croissante de l’IA sera particulièrement efficace, finement ciblée, difficile à attribuer et pourra exploiter les vulnérabilités des systèmes intelligents », précise le rapport.
Ce sera par exemple, le cas de l’hameçonnage ciblé (ou « spear fishing »). Il s’agira d’une version améliorée du « fishing », qui proposera au destinataire naïf d’un message électronique personnalisé de communiquer ses mots de passe ou de compléter des questionnaires, première étape avant une éventuelle usurpation d’identité. C’est assez classique. Mais l’attaque sera mieux ciblée car ce futur piratage pourrait s’adapter précisément aux types de consommation et aux habitudes de chaque destinataire (sa banque, son travail, sa situation familiale etc.), ce qui rendrait l’attaque plus efficace.
Risque de déclencher des guerres ?
L’un des risques les plus sérieux serait celui que l’IA ferait peser sur des démocraties. « Nous avons déjà vu comment les gens se servaient de la technologie pour essayer d’interférer dans les élections », a indiqué à l’AFP Seàn Ó hÉigeartaigh (sic), directeur exécutif d’un centre de recherches à l’université Cambridge (Grande-Bretagne). Et d’ajouter, « si l’IA permet à ces menaces de devenir plus fortes, plus difficiles à repérer et à identifier, cela pourrait poser de gros problèmes de stabilité politique et contribuer, peut-être, à déclencher des guerres ».
Ces experts relaient ainsi des inquiétudes déjà formulées ces dernières années par des scientifiques, comme le physicien Stephen Hawking, et des entrepreneurs, tel Elon Musk. Ce dernier est, par ailleurs, donateur d’au moins deux des institutions contributrices du rapport, « Future of life institute » qui a apporté une bourse pour la rédaction du document, et OpenAI, une ONG californienne que le magnat a cofondée. Il est à noter qu’aucune institution française n’a participé à ce travail, malgré la réputation mondiale des chercheurs nationaux dans l’IA.
yogaesoteric
14 avril 2018