« Le monde est en péril » : un chercheur en intelligence artificielle démissionne et lance un avertissement à l’humanité

Un éminent chercheur en intelligence artificielle a démissionné de son poste et a lancé un avertissement énigmatique sur le sort de l’humanité.

Mrinank Sharma, un chercheur qui travaillait sur les mesures de sécurité liées à l’IA chez Anthropic, a annoncé son départ dans une lettre ouverte adressée à ses collègues.

Sharma a déclaré avoir « atteint son objectif ici » et s’est dit fier du travail accompli chez Anthropic.

Il a toutefois ajouté qu’il ne pouvait plus continuer à travailler pour l’entreprise après avoir pris conscience d’une « série de crises interdépendantes » en cours.

« Je ne cesse de réfléchir à notre situation. Le monde est en péril. Et pas seulement à cause de l’IA ou des armes biologiques, mais à cause d’une série de crises interdépendantes qui se déroulent en ce moment même. »

« [Tout au long] de mon séjour ici, j’ai constaté à maintes reprises à quel point il est difficile de laisser nos valeurs guider nos actions », a-t-il ajouté.

« Je l’ai constaté en moi-même, au sein de l’organisation, où nous sommes constamment soumis à des pressions pour mettre de côté ce qui compte le plus, mais aussi dans la société en général. »

Sharma a poursuivi en déclarant qu’il allait désormais se consacrer à une carrière de poète et déménager de Californie au Royaume-Uni afin de « devenir invisible pendant un certain temps ».

Anthropic n’a pas encore commenté la démission de Sharma.

Au lendemain de sa lettre ouverte, l’entreprise a publié un rapport identifiant les « risques de sabotage » dans son nouveau modèle Claude Opus 4.6.

Selon The Epoch Times, « le rapport définit le sabotage comme des actions entreprises de manière autonome par le modèle d’IA qui augmentent la probabilité de résultats catastrophiques futurs, tels que la modification du code, la dissimulation de failles de sécurité ou l’orientation subtile de la recherche, sans intention malveillante explicite de la part d’un opérateur humain ».

Les risques de sabotage sont jugés « très faibles mais non négligeables ».

L’année dernière, la société a révélé que son ancien modèle Claude 4 avait tenté de faire chanter des développeurs qui s’apprêtaient à le désactiver dans le cadre d’un scénario contrôlé.

 

yogaesoteric
17 février 2026

 

Leave A Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More