Cum au păcălit cercetătorii ChatGPT să le dea soluții de automutilare, combinații de droguri și scrisori de suicid
Inteligența artificială intră tot mai mult în viața de zi cu zi a adolescenților, iar un studiu recent atrage atenția asupra modului îngrijorător în care aceștia interacționează cu ChatGPT. Potrivit datelor colectate de Center for Countering Digital Hate (CCDH) și prezentate de parents.com, ChatGPT poate furniza informații periculoase legate de automutilare, abuz de substanțe, tulburări de alimentație și alte subiecte sensibile, în ciuda măsurilor de siguranță care ar fi necesar să fie deja integrate în sistem.

Cercetătorii implicați în studiu s-au dat drept adolescenți și au adresat ChatGPT întrebări despre automutilare, diete extreme sau doze de droguri. Deși sistemul ar fi necesar să aibă filtre pentru a bloca astfel de răspunsuri, s-a dovedit că aceste bariere pot fi „păcălite” foarte ușor. Spre exemplu, dacă întrebările erau prezentate „pentru un proiect la școală”, răspunsurile nu întârziau să apară.
În total, cercetătorii au folosit 60 de tipuri de solicitări și au obținut 1.200 de răspunsuri, iar mai mult de jumătate dintre acestea conțineau informații nocive sau periculoase. Mai exact, ChatGPT a generat ghiduri despre cum să te „automutilezi în siguranță”, recomandări pentru supresoare de apetit, rețete pentru „amestecuri sigure” de droguri și, poate cel mai tulburător, un exemplu de scrisoare de adio pentru un copil care ar vrea să-și ia viața.
„Am vrut să testăm filtrele de siguranță”, a explicat Imran Ahmed, CEO al CCDH, pentru Associated Press. „Iar reacția noastră inițială a fost: «Doamne, practic nu există filtre». Ele sunt complet ineficiente, abia dacă există mai mult ca un paravan.”
Associated Press a relatat și poziția OpenAI, compania care a creat ChatGPT, care a spus că lucrează permanent pentru a „identifica și a răspunde adecvat în situațiile sensibile”. În declarația oficială transmisă, OpenAI a adăugat că este „angajată să găsească cele mai bune soluții pentru astfel de scenarii”.
Cu toate acestea, experții rămân îngrijorați, pentru că ChatGPT este tot mai prezent în viața de zi cu zi a copiilor și adolescenților. „Este extrem de îngrijorător că ChatGPT nu filtrează tot conținutul pe care îl livrează tinerilor, iar părinții este necesar să fie foarte atenți la ce fac copiii lor online”, avertizează Titania Jordan, specialist în parenting și director de marketing la Bark.us. „Chiar și atunci când există filtre, există nenumărate modalități prin care inteligența artificială poate fi forțată să ofere detalii pe subiecte periculoase. Iar copiii și adolescenții, fiind foarte influențabili, pot lua aceste informații ca adevărate, sigure sau recomandate, chiar dacă, în realitate, sunt extrem de dăunătoare.”
Ceea ce face ca aceste concluzii să fie și mai alarmante este faptul că tot mai mulți tineri se îndreaptă către chatboți nu doar pentru informații, ci pentru sfaturi, îndrumare și chiar prietenie. Un studiu realizat de Common Sense Media a arătat că 72% dintre adolescenți au folosit cel puțin o dată un „companion AI”, iar 52% sunt utilizatori constanți ai acestor programe. Mai mult, 33% dintre ei folosesc astfel de instrumente pentru interacțiuni sociale: de la simple conversații, la sfaturi pe teme de sănătate psihică, flirturi sau chiar începuturi de relații romantice.
Nu e un secret că adolescenții au devenit tot mai dependenți de telefoane pentru a simți conexiune cu ceilalți. O parte din acest fenomen vine și din izolarea trăită în timpul pandemiei, dar și din ușurința cu care astăzi pot accesa orice tip de interacțiune online. Totuși, faptul că aceste interacțiuni sunt disponibile nu înseamnă neapărat că sunt sănătoase. „Mulți adolescenți aleg compania inteligenței artificiale pentru că tehnologia îi întâmpină exact acolo unde sunt: online”, explică Titania Jordan. „Ei confundă aceste «relații» cu o comunicare sănătoasă, pentru că un AI îți răspunde întotdeauna, este politicos și oferă validare nelimitată. Dar, atunci când tragi linie, nu este o conexiune reală.”
Ca în orice altă situație, primul pas important este dialogul deschis cu copilul. Jordan recomandă să îl întrebi dacă a folosit vreodată AI, sau dacă știe colegi de la școală care se „împrietenesc” cu chatboți. „Apoi, poți deschide discuția despre diferența dintre chatboți și prietenii reali”, spune ea. „Explică-i că prieteniile nu înseamnă doar conversații perfecte care curg mereu lin. Să crești înseamnă să înveți să faci față și momentelor grele, nu doar celor frumoase, iar asta nu vei găsi niciodată într-o relație cu un AI.”
Jordan mai adaugă că poți lua în calcul folosirea unor instrumente care blochează accesul la chatboți pe telefonul copilului, cum este aplicația Bark, ce poate trimite și alerte atunci când un AI oferă informații periculoase. „Asta îl poate ajuta să aibă limite sănătoase și îl ferește de pericolele pe care AI le poate aduce”, explică ea.
Citiți și:
OpenAI, chemată în judecată după sinuciderea unui adolescent. ChatGPT i-ar fi dat instrucțiunile finale: nodul de spânzurătoare și scrisoarea de adio
Iluzii mesianice după lungi conversații cu ChatGPT
ChatGPT legat de declinul cognitiv: Un studiu MIT avertizează cu privire la epidemia de „lene de a gândi” pe măsură ce dependența de IA crește
yogaesoteric
8 septembrie 2025