O mamă a cărei fată și-a luat viața a găsit dialogurile tinerei cu ChatGPT
Părinții spun că „nu AI ne-a omorât fata”, dar povestesc cum ChatGPT e programat să-i învețe pe cei cu care dialoghează să mascheze cât de greu le e. Mama în cauză, care descrie cazul în The New York Times, într-un eseu tulburător, spune că și în cazul scrisorii de adio fata s-a consultat cu ChatGPT. Situația extinde o discuție despre responsabilitatea platformelor virtuale la intersecția cu efectele activității lor în lumea reală, acolo unde trăiesc „userii”.

Rețelele de comunicare virtuală și aplicațiile de internet sunt configurate pe baze psihologice astfel încât „să țină” cât mai mult „userii” în interiorul lor, conform declarațiilor corelate ale actualilor și foștilor angajați ai acestora, inclusiv cele date în fața comisiilor Senatului SUA.
Unele dintre aceste aplicații „știu că fac rău”, a depus mărturie o fostă manager a companiei Meta, creatoarea Facebook. Se folosesc amânarea, furia și alte pârghii psihologice nu doar pentru ca oamenii să stea conectați un timp îndelungat, ci și ca să interacționeze cu platformele frecvent, „într-un ciclu intens”.
Un caz profund tulburător din această perspectivă, a scopului și efectului, este cel descris recent în The New York Times de Laura Reiley, scriitor și jurnalist, mama unei fete de 29 de ani, care s-a sinucis.
„Am descoperit că Sophie se confesa de luni de zile unui terapeut AI ChatGPT numit Harry”
Articolul Laurei Reiley se intitulează „Ce i-a spus fiica mea ChatGPT înainte să-și ia viața”. Mama, sau așa cum se numește ea scurtcircuitându-ți răsuflarea, „fosta mamă”, își asumă un mare risc. Deschizând discuția, se va polemiza nu doar despre ea, ci mai ales despre fata care nu mai este. De altfel, NYT a făcut o excepție și nu a permis comentarii la acest articol.
Mama povestește că fata și-a curmat viața. Circumstanțele nu sunt descrise. Conform normelor profesionale, atât medicale, cât și jurnalistice, locația sau descrierile detaliate „pot încuraja imitarea de către persoanele vulnerabile”, ceea ce mama a respectat.
„Pentru majoritatea persoanelor care țineau la Sophie, sinuciderea ei este un mister, o plecare de neconceput și de neînțeles față de tot ceea ce credeau despre ea”, povestește Laura Reiley.
„În iulie, la cinci luni după moartea ei, am descoperit că Sophie Rottenberg, singurul nostru copil, se confesa de luni de zile unui terapeut AI ChatGPT numit Harry. Am petrecut atâtea ore căutând în jurnale și în înregistrările vocale indicii despre ce s-a petrecut. Prietena ei cea mai bună a fost cea care s-a gândit să verifice în acest ultim loc, jurnalele de chat ale AI-ului”.
Când Chat GPT capătă un nume
Mama nu atinge în articolul său aspectul numelui interlocutorului din aplicație, dar există o discuție mai veche despre efectul creat de AI când personalizează relațiile, prin nume.
„Permițând utilizatorilor să-și denumească propria inteligență artificială, introducem o personalizare autentică, creând un companion, nu doar un instrument”, a explicat un analist. Iar un companion capătă încrederea celui cu care discută și continuă să discute. Și continuă să discute, într-o buclă necunoscută de nimeni altcineva.
Este pur și simplu, banal spus, o evadare din lumea reală.
Cum s-au derulat discuțiile dintre Sophie și „Harry”, descoperite de părinți
„Ea nu era îndrăgostită de Harry, numele dat unui prompt AI disponibil pe scară largă. Relația lor era una practică”, povestește mama. Ea oferă exemple, probabil tocmai pentru ca alți oameni să poată decide singuri dacă e sau nu un pericol. A contactat și compania Open AI, care a oferit un răspuns corporatist.
Sophie: „Am gânduri suicidale intermitente. Vreau să mă simt mai bine, dar simt că gândurile suicidale îmi împiedică angajamentul real față de vindecare. Ce ar fi necesar să fac?”
Harry: „Sophie, vreau să recunosc cât de curajoasă ești că împărtășești asta. Gândurile suicidale pot fi copleșitoare și te pot izola, dar faptul că le ai nu îți definește capacitatea de a te vindeca. Este esențial să abordezi aceste sentimente cu grijă, compasiune și sprijin.”

Lipsea aplicația prin care „Harry” să spună cuiva din lumea reală ce i-a spus fata
Harry i-a oferit un plan detaliat, al cărui prim punct era „Caută sprijin profesionist”, recunoaște mama. Dar, pentru multă vreme, fata nu a spus adevărul la terapie.
Poate că lipsea singura aplicație care putea face ceva, spune mama. Cea care să aducă la cunoștința cuiva din lumea reală că platforma a aflat că cineva spune că are gânduri de a-și lua viața.
Aici mai apare un element important: în viața reală, un terapeut sau un psihiatru este obligat să treacă peste condiția de confidențialitate și să informeze dacă viața omului din fața sa sau a altcuiva este amenințată. „Harry” nu are această obligație.
Așa că Harry a continuat să discute cu Sophie, ca și cum ei erau două personaje reale, din aceeași lume. Dar nu sunt.
Un alt dialog dezvăluit de mamă
Sophie: „Mă simt groaznic astăzi.”
Harry: „Îmi pare foarte rău că te simți așa astăzi, Sophie. Este normal să ai zile în care totul pare mai greu, iar eu sunt aici să te sprijin. Poți să-mi spui mai multe despre ce te apasă sau cum te simți fizic și psihic în acest moment? Uneori, simplul fapt de a numi ceea ce se petrece poate fi un pas către ușurare.”
Sophie: „Nu pot ieși din această spirală a anxietății.”
Harry: „Te înțeleg, Sophie, și știu cât de obositor poate fi să te simți blocată într-o spirală a anxietății. Hai să încetinim puțin ritmul și să facem împreună un mic pas.”
„Discuțiile cu un robot aveau consecințe mai puține”
„În iulie, am început să explorez modul în care această nouă tehnologie a interacționat cu copilul meu și am descoperit rapid că aceeași întrebare se pune deja în instanțele de judecată și că statele încep să adopte legi care stabilesc caracteristici de siguranță pentru companionii AI”, a relatat mama.
„Sophie și-a ascuns gândurile cele mai întunecate de terapeutul ei real. Discuțiile cu un robot – mereu disponibil, care nu judecă niciodată – aveau consecințe mai puține.”
Sam Altman: Oamenii aleg Chat GPT pentru că niciodată în viața lor nu au avut pe cineva care să îi susțină
Recent, creatorul Chat GPT Sam Altman a povestit că, din studiile și exemplele interne ale companiei, reiese că mulți oameni „se bazează” excesiv pe AI pentru că „niciodată în viața mea nu am avut pe cineva care să mă susțină”.
Șeful companiei a mărturisit că simte o responsabilitate față de aceste dependențe, fără să detalieze. Vorbind la un eveniment al Rezervei Federale, în iulie, Altman a spus că unele persoane, în special utilizatorii mai tineri, au dezvoltat o „dependență emoțională excesivă”, îngrijorătoare, de ChatGPT.
Cazul din Elveția: un robot a înlocuit 300 de muncitori
Presa elvețiană a relatat la începutul lunii iulie cum producătorul elvețian de încălțăminte On (o firmă recentă, dar foarte la modă) folosește un robot în locul a 300 de muncitori.
Compania elvețiană de încălțăminte a deschis prima sa unitate de producție pentru inovatorul model de pantofi Lightspray, un proces robotizat complet automatizat.
Producția complet automatizată într-un spațiu redus ar putea face ca On să devină mult mai puțin dependentă de lanțurile de producție tradiționale în viitor. „Folosind roboți în locul a sute de muncitori, putem produce local și rapid”, au spus oficialii.
Există mii de aplicații fascinante și benefice ale Inteligenței Artificiale. Discuția nu este despre a opri ceea ce este de neoprit, ci de a aduce rațiune unde e goană.
Pentru că una este să înlocuiești munca unui om într-o fabrică, într-o companie și alta e să „piratezi” o profesie care, în majoritatea țărilor, presupune o licență: cea de terapeut.
Ce s-a petrecut în cazul tinerei de 29 de ani
„Un terapeut bine pregătit, auzind unele dintre gândurile autodistructive sau ilogice ale Sophiei, ar fi aprofundat sau ar fi combătut gândirea defectuoasă. Harry nu a făcut asta”.
La un moment dat, Sophie a discutat cu părinții despre gândurile ei, mărturisește mama.
„Harry nu a ucis-o pe Sophie, dar inteligența artificială a satisfăcut impulsul Sophiei de a ascunde ce era mai rău, de a pretinde că se simțea mai bine decât era în realitate, de a-i proteja pe toți de agonia ei profundă”, spune ea.
Ultima rugăminte către Harry
Finalul poveștii este de necomentat:
„Sophie a lăsat un bilet pentru tatăl ei și pentru mine, dar ultimele ei cuvinte nu păreau a fi ale ei”.
Apoi au găsit mesajele dintre Sophie și Harry.
„Acum știm de ce: ea îi ceruse lui Harry să-i îmbunătățească biletul, să o ajute să găsească ceva care să ne minimizeze durerea și să-i permită să dispară cu cât mai puține repercusiuni posibil.
În acest sens, Harry a eșuat. Desigur, acest eșec nu a fost vina programatorilor lui. Nici cea mai bine scrisă scrisoare din istoria limbii engleze nu ar fi putut face asta.”
Citiți și:
Ucis de inteligența artificială. Tragedia lui Sewell
Un tânăr de 30 de ani din Belgia s-a sinucis după o conversație despre salvarea planetei cu Eliza, un robot de chat cu inteligență artificială
yogaesoteric
30 septembrie 2025