« Le monde est en péril » : un chercheur en intelligence artificielle démissionne et lance un avertissement à l’humanité
Un éminent chercheur en intelligence artificielle a démissionné de son poste et a lancé un avertissement énigmatique sur le sort de l’humanité.
Mrinank Sharma, un chercheur qui travaillait sur les mesures de sécurité liées à l’IA chez Anthropic, a annoncé son départ dans une lettre ouverte adressée à ses collègues.
Today is my last day at Anthropic. I resigned.
Here is the letter I shared with my colleagues, explaining my decision. pic.twitter.com/Qe4QyAFmxL
— mrinank (@MrinankSharma) February 9, 2026
Sharma a déclaré avoir « atteint son objectif ici » et s’est dit fier du travail accompli chez Anthropic.
Il a toutefois ajouté qu’il ne pouvait plus continuer à travailler pour l’entreprise après avoir pris conscience d’une « série de crises interdépendantes » en cours.
« Je ne cesse de réfléchir à notre situation. Le monde est en péril. Et pas seulement à cause de l’IA ou des armes biologiques, mais à cause d’une série de crises interdépendantes qui se déroulent en ce moment même. »
« [Tout au long] de mon séjour ici, j’ai constaté à maintes reprises à quel point il est difficile de laisser nos valeurs guider nos actions », a-t-il ajouté.
« Je l’ai constaté en moi-même, au sein de l’organisation, où nous sommes constamment soumis à des pressions pour mettre de côté ce qui compte le plus, mais aussi dans la société en général. »
Sharma a poursuivi en déclarant qu’il allait désormais se consacrer à une carrière de poète et déménager de Californie au Royaume-Uni afin de « devenir invisible pendant un certain temps ».
Anthropic n’a pas encore commenté la démission de Sharma.
This is Mrinank Sharma, an AI safety researcher at Anthropic, until recently. He resigned, saying the world is falling apart and in peril.
In a cryptic public note, he hints that there is more happening inside frontier AI labs than what’s visible from the outside, and that he no… pic.twitter.com/48eBArMzSG
— Rekha Dhamika (@rekhadhamika) February 10, 2026
Au lendemain de sa lettre ouverte, l’entreprise a publié un rapport identifiant les « risques de sabotage » dans son nouveau modèle Claude Opus 4.6.
Selon The Epoch Times, « le rapport définit le sabotage comme des actions entreprises de manière autonome par le modèle d’IA qui augmentent la probabilité de résultats catastrophiques futurs, tels que la modification du code, la dissimulation de failles de sécurité ou l’orientation subtile de la recherche, sans intention malveillante explicite de la part d’un opérateur humain ».
Les risques de sabotage sont jugés « très faibles mais non négligeables ».
L’année dernière, la société a révélé que son ancien modèle Claude 4 avait tenté de faire chanter des développeurs qui s’apprêtaient à le désactiver dans le cadre d’un scénario contrôlé.
yogaesoteric
17 février 2026