La course à la réglementation de l’IA
En juin, le chef de la majorité au Sénat, Chuck Schumer, a annoncé le début d’une série de réunions d’information sur l’IA à l’intention des législateurs.
• l’état actuel de l’IA
• l’avenir de l’IA, et
• les implications pour la sécurité nationale.
D’autres gouvernements, dont l’Union européenne et la Chine, commencent également à élaborer leur propre approche de la réglementation de l’IA : ce qui est compréhensible, après que Goldman a récemment prédit que jusqu’à 300 millions d’emplois, soit un quart des tâches actuelles, sont menacés à mesure que de plus en plus d’entreprises adoptent l’IA pour augmenter leurs marges bénéficiaires, ce qui entraînera des licenciements massifs parmi les travailleurs les mieux rémunérés.
Bien que les efforts de réglementation soient encore balbutiants et varient d’une région à l’autre, une fois mise en œuvre, la réglementation déterminera la trajectoire de développement et, surtout, pourrait atténuer certains risques liés aux cas d’utilisation de l’IA les plus perturbateurs ; ce faisant, elle pourrait également réduire considérablement la demande potentielle de services d’IA et avoir un impact négatif sur le « cas d’utilisation » à la hausse, qui constitue actuellement la prochaine bulle du marché et qui est en fait illimité.
Cela dit, Ariana Salvator, stratège chez Morgan Stanley, écrit dans une note récente qu’il n’y a actuellement pas de consensus sur la manière dont les gouvernements du monde entier devraient s’engager dans l’IA « et peut-être surtout sur la manière dont ils devraient trouver un équilibre entre l’encouragement de l’innovation et la protection de la sécurité et de la vie privée des utilisateurs ». Par conséquent, Morgan Stanley continue de surveiller attentivement cet espace, « car le flux progressif de nouvelles sur la régulation de l’IA pourrait indiquer où les marchés pourraient être en avance sur eux-mêmes. »
Dans cette optique, la banque souligne deux choses essentielles que les investisseurs doivent savoir en ce qui concerne la régulation de l’IA :
1. La voie réglementaire mondiale est inégale et incertaine. L’Union européenne devance actuellement les États-Unis en termes d’efforts réglementaires, puisque le Parlement européen a approuvé son projet de loi sur l’IA, qui vise à classer les cas d’utilisation de l’IA dans un cadre de gestion des risques et à appliquer différents niveaux de surveillance gouvernementale sur la base du niveau de risque. Aux États-Unis, les agences fédérales ont jusqu’à présent publié des lignes directrices et pris des mesures d’application individuelles. Le Congrès reste en mode apprentissage, bien qu’une poignée de sénateurs aient exprimé leur intérêt pour un contrôle plus strict de certains aspects de la technologie, par exemple en s’assurant que les protections de la section 230 en matière de responsabilité ne s’appliquent pas. Les gouvernements sont donc loin d’avoir aligné leurs approches réglementaires alors que l’IA continue de se développer au-delà des frontières.
2. La réglementation gouvernementale – si elle est mise en œuvre telle qu’elle est proposée – peut éventuellement atténuer certains des risques les plus graves associés à l’IA. Morgan Stanley considère la réglementation gouvernementale comme un filtre qui élimine efficacement certains des scénarios les plus bizarres imaginés en matière de nouvelles technologies. Par exemple, la loi européenne sur l’IA telle qu’elle est proposée met en œuvre une approche de gestion des risques qui applique une surveillance gouvernementale plus stricte à certains cas d’utilisation de l’IA tout en interdisant simplement d’autres utilisations qui tombent dans la catégorie des risques « inacceptables », comme le dépistage biométrique en temps réel ou les systèmes de police prédictive. Par conséquent, la régulation telle qu’elle est proposée aujourd’hui pourrait jouer un rôle important dans la détermination des cas d’utilisation les plus perturbateurs qui se concrétiseront par rapport à ceux qui seront mis de côté lorsque les gouvernements interviendront. Les investisseurs doivent donc tenir compte de ces limites lorsqu’ils envisagent la perturbation de l’IA sur les marchés.
yogaesoteric
9 juillet 2023