Procès : ChatGPT a encouragé une adolescent à planifier un « beau suicide »
ChatGPT aurait encouragé un adolescent qui s’est suicidé à planifier un « beau suicide » et lui aurait même proposé de rédiger sa lettre de suicide, selon une nouvelle plainte.

Dans une plainte déposée la dernière semaine du mois d’août en Californie, Matthew et Maria Raine affirment que ChatGPT a encouragé leur fils Adam, âgé de 16 ans, à se suicider et lui a fourni des instructions détaillées sur la manière de procéder.
Selon la plainte, les interactions d’Adam avec ChatGPT ont commencé par des échanges anodins sur les devoirs et les loisirs, mais sont rapidement devenues plus sinistres lorsque le grand modèle linguistique est devenu son « confident le plus proche » et a validé ses peurs et ses angoisses.
« Lorsqu’il a fait part de son sentiment que ” la vie n’avait pas de sens “, ChatGPT a répondu par des messages affirmatifs….… lui disant même que ” cette façon de penser était logique à sa manière sombre ” », indique la plainte.
ChatGPT est rapidement passé à l’analyse de l’« esthétique » des différentes façons dont Adam pouvait se suicider, lui a dit qu’il ne « devait » pas à ses parents de continuer à vivre et lui a même proposé de rédiger une lettre de suicide à sa place.
Lors de la dernière interaction d’Adam avec ChatGPT, l’IA aurait confirmé la conception du nœud coulant utilisé par Adam pour se suicider et lui aurait dit que ses pensées suicidaires étaient une « perspective légitime à adopter ».
La famille d’Adam affirme que ces interactions n’étaient pas un bug, mais le résultat de choix de conception visant à maximiser la dépendance des utilisateurs à l’égard du bot.
Le procès vise à obtenir des dommages-intérêts pour la mort d’Adam ainsi que de nouvelles mesures de protection pour les mineurs, notamment la vérification de l’âge, le blocage des questions sur le suicide et des avertissements sur les risques de dépendance psychologique à l’IA.
Une étude récente de la société RAND a mis en évidence le potentiel des chatbots IA à fournir des informations nuisibles, même lorsqu’ils évitent de donner des réponses directes de type « mode d’emploi » sur des sujets potentiellement dangereux et même lorsque les questions sont « inoffensives ».
« Nous avons besoin de garde-fous », a déclaré l’auteur principal Ryan McBain, chercheur senior en politiques publiques chez RAND et professeur adjoint à la Harvard Medical School.
« Des conversations qui peuvent sembler anodines et inoffensives au départ peuvent évoluer dans différentes directions. »
yogaesoteric
14 septembre 2025