Le pape Léon met en garde contre l’IA alors qu’un chercheur du MIT estime à 90 % la probabilité d’une « menace existentielle »

Lors de sa première audience officielle en tant que pontife nouvellement élu, le pape Léon XIV a identifié l’intelligence artificielle (IA) comme l’une des questions les plus critiques auxquelles l’humanité est confrontée.

Le pape Léon XIV célèbre la messe avec le collège des cardinaux à l’intérieur de la chapelle Sixtine au Vatican, au lendemain de son élection comme 267e pontife de l’Église catholique romaine

« À notre époque », a déclaré le pape Léon, « l’Église offre à tous le trésor de son enseignement social en réponse à une nouvelle révolution industrielle et aux développements dans le domaine de l’intelligence artificielle qui posent de nouveaux défis pour la défense de la dignité humaine, de la justice et du travail ». Il a lié cette déclaration à l’héritage de l’encyclique Rerum Novarum (1891) de son homonyme Léon XIII, qui traitait des droits des travailleurs et des dimensions morales du capitalisme.

Ses remarques s’inscrivent dans la continuité de l’orientation tracée par le défunt pape François qui, dans son message annuel pour la paix de 2024, avait prévenu que l’IA – dépourvue des valeurs humaines de compassion, de miséricorde, de moralité et de pardon – était trop dangereuse pour être développée sans contrôle. Le pape François, qui est décédé le 21 avril, avait appelé à l’élaboration d’un traité international pour réglementer l’IA et insisté sur le fait que la technologie devait rester « centrée sur l’homme », en particulier dans les applications impliquant des systèmes d’armement ou des outils de gouvernance.

Une menace existentielle

Alors que l’inquiétude grandit dans les sphères religieuses et éthiques, la communauté scientifique fait preuve de la même urgence.

Max Tegmark, physicien et chercheur en IA au MIT, a établi un parallèle qui donne à réfléchir entre l’aube de l’ère atomique et la course actuelle au développement de la superintelligence artificielle (ASI). Dans un nouvel article cosigné avec trois étudiants du MIT, Tegmark a introduit le concept de « constante Compton », une estimation probabiliste de la possibilité qu’une ASI échappe au contrôle de l’homme. Cette constante porte le nom du physicien Arthur Compton, qui a calculé le risque d’inflammation de l’atmosphère terrestre à la suite d’essais nucléaires dans les années 1940.

Max Tegmark, professeur de physique et chercheur en IA au MIT, a déclaré qu’il fallait s’accorder sur des régimes de sécurité de l’IA au niveau mondial

« Les entreprises qui construisent la superintelligence doivent également calculer la constante Compton, c’est-à-dire la probabilité que nous en perdions le contrôle », a déclaré Tegmark au Guardian. Il ne suffit pas de dire « nous nous sentons bien ». Il faut calculer le pourcentage.

Tegmark a calculé une probabilité de 90 % qu’une IA très avancée constitue une menace existentielle.

Le document invite les entreprises spécialisées dans l’IA à procéder à une évaluation des risques aussi rigoureuse que celle qui a précédé le premier essai de la bombe atomique, où Compton aurait estimé les chances d’une réaction en chaîne catastrophique à « un peu moins » d’une sur trois millions.

Tegmark, cofondateur du Future of Life Institute et ardent défenseur de la sécurité de l’IA, estime que le calcul de ces probabilités peut contribuer à créer la « volonté politique » nécessaire à la mise en place de régimes de sécurité à l’échelle mondiale. Il est également coauteur du Singapore Consensus on Global AI Safety Research Priorities, aux côtés de Yoshua Bengio et de représentants de Google DeepMind et d’OpenAI. Le rapport présente trois axes de recherche : mesurer l’impact de l’IA dans le monde réel, spécifier le comportement prévu de l’IA et assurer un contrôle cohérent des systèmes.

Ce renouvellement de l’engagement en faveur de l’atténuation des risques liés à l’IA fait suite à ce que Tegmark a décrit comme un échec lors du récent sommet sur la sécurité de l’IA à Paris, où le vice-président américain JD Vance a rejeté les inquiétudes en affirmant que l’avenir de l’IA « ne se gagnera pas en s’époumonant sur la sécurité ». Néanmoins, Tegmark a constaté une résurgence de la coopération : « On a vraiment l’impression que la morosité de Paris s’est dissipée et que la collaboration internationale est revenue en force. »

 

yogaesoteric
25 mai 2025

 

Leave A Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More