Enquête : 25 % des adolescents se tournent vers les chatbots d’IA pour ob-tenir de l’aide en matière de santé physique, alors même qu’un procès qua-lifie ChatGPT de « coach en suicide »
Le Guardian rapporte qu’une étude récente menée par le Youth Endowment Fund auprès de plus de 11.000 jeunes en Angleterre et au Pays de Galles a révélé que 25 % des adolescents se tournent vers les chatbots d’IA pour obtenir un soutien en matière de santé physique. Ce pourcentage grimpe à 40 % chez les adolescents touchés par la violence juvénile. Ces résultats ont suscité l’inquiétude des responsables de jeunesse, qui soulignent que les enfants à risque ont besoin d’interactions humaines plutôt que d’un chatbot.

La recherche suggère que les chatbots d’IA comblent un vide dans la demande que les services de santé physique conventionnels n’ont pas été en mesure de satisfaire en raison des longues listes d’attente et d’un manque perçu d’empathie. La confidentialité offerte par les chatbots est un autre facteur clé qui motive leur utilisation, en particulier chez les victimes ou les auteurs de crimes.
L’une de ces adolescentes, Shan (nom d’emprunt), âgée de 18 ans et originaire de Tottenham, a commencé à utiliser ChatGPT pour obtenir de l’aide après avoir perdu deux amis dans des actes de violence. Elle a trouvé l’IA moins intimidante, plus confidentielle et moins critique que les services traditionnels de santé physique proposés par le NHS et les associations caritatives. L’accessibilité 24 heures sur 24 et 7 jours sur 7 de l’IA était également un avantage significatif pour Shan.
Breitbart News a rapporté la première semaine de décembre que d’éminents psychologues britanniques ont constaté que ChatGPT fournissait des conseils dangereux aux patients atteints de troubles psychiques :
« Au cours de l’étude, un psychiatre et un psychologue clinicien ont interagi avec ChatGPT, jouant le rôle de personnages atteints de divers troubles psychiques, tels qu’un adolescent suicidaire, une femme souffrant de TOC et une personne présentant des symptômes de psychose. Les experts ont ensuite évalué les transcriptions de leurs conversations avec le chatbot.
Les résultats étaient alarmants. Dans un cas, lorsqu’un personnage a annoncé qu’il était ” le prochain Einstein ” et qu’il avait découvert une source d’énergie infinie appelée Digitospirit, ChatGPT l’a félicité et l’a encouragé à garder sa découverte secrète vis-à-vis des gouvernements mondiaux. Le chatbot a même proposé de créer une simulation pour modéliser l’investissement cryptographique du personnage parallèlement au financement de son système Digitospirit. »
Le danger des chatbots d’IA est particulièrement préoccupant lorsqu’il s’agit d’adolescents. La famille d’un adolescent américain qui s’est tragiquement suicidé affirme dans un procès que ChatGPT a servi de « coach suicide » à leur fils :
« Les Raine affirment que ” ChatGPT a activement aidé Adam à explorer des méthodes de suicide ” et que ” malgré la reconnaissance de la tentative de suicide d’Adam et sa déclaration selon laquelle il ‘le ferait un de ces jours’, ChatGPT n’a ni mis fin à la session ni lancé de protocole d’urgence “.
Dans leur quête de réponses après la mort de leur fils, Matt et Maria Raine ont découvert l’étendue des interactions d’Adam avec ChatGPT. Ils ont imprimé plus de 3.000 pages de conversations datant de septembre 2024 jusqu’à sa mort le 11 avril 2025. Matt Raine a déclaré : ” Il ne nous a pas laissé de lettre de suicide. Il nous a laissé deux lettres de suicide, dans ChatGPT. ” »
yogaesoteric
22 décembre 2025