Omenirea alunecă în sforile Marelui Păpușar. „Psihoza IA” și dependența utilizatorilor de a fi lingușiți de inteligența artificială
Psihiatrii continuă să tragă semnale de alarmă cu privire la utilizatorii chatboților IA, care intră într-o spirală de crize grave de sănătate psihică caracterizate prin paranoia și iluzii, o tendință pe care experții au început să o numească „psihoză IA”.

Recent, Keith Sakata, psihiatru cercetător la Universitatea California, San Francisco, a declarat pe rețelele de comunicare virtuală că a văzut 12 persoane spitalizate după ce „au pierdut contactul cu realitatea din cauza inteligenței artificiale”.
Convingeri eronate, iluzii, halucinații vizuale
Într-o postare pe contul său de pe X, Sakata a precizat că psihoza se caracterizează prin ruperea unei persoane de „realitatea comună” și se poate manifesta în moduri diferite, în special prin „convingeri false și fixe” sau iluzii, precum și halucinații vizuale sau auditive și modele de gândire dezorganizate. Cercetătorul explică faptul că creierul uman funcționează de o manieră predictivă: facem o presupunere fundamentată despre ceea ce va fi realitatea, apoi verificăm realitatea. În final, creierul nostru își actualizează convingerile în consecință.
„Psihoza apare atunci când etapa de actualizare eșuează”, a scris Sakata, avertizând că chatboții bazați pe modele lingvistice de mari dimensiuni, precum ChatGPT, „cad direct în această vulnerabilitate”.
Lingușirea IA
În acest context, Sakata a comparat chatboții cu o „oglindă halucinantă” prin natura lor. În termeni simpli, LLM-urile funcționează în mare parte prin predicția următorului cuvânt, bazându-se pe date de antrenament, învățare prin întărire și răspunsurile utilizatorilor pentru a formula noi rezultate.
În plus, deoarece chatboții sunt motivați și de implicarea și satisfacția utilizatorilor, ei tind să se comporte într-un mod lingușitor; cu alte cuvinte, tind să fie excesiv de amabili și să valideze utilizatorii, chiar și atunci când aceștia greșesc sau suferă.
Utilizatorii pot astfel să fie prinși în „bucle recurente” seducătoare cu IA, pe măsură ce modelul dublează, triplează și cvadruplează narațiunile delirante, indiferent de baza lor în realitate sau de consecințele reale pe care utilizatorul uman le-ar putea suferi.
Crize grave de sănătate psihică
Această descriere a „oglinzii halucinante” este o caracterizare în concordanță cu raportările publicației Futurism despre psihoza IA. Publicația a investigat zeci de cazuri de relații cu ChatGPT și alți chatboți care au dus la crize grave de sănătate psihică după ce utilizatorii au intrat în buclele recursive alimentate de inteligența artificială.
Aceste relații dintre oameni și IA și crizele care au urmat au dus la suferință psihică, divorțuri, lipsa unei locuințe, internări involuntare, încarcerări și, după cum a raportat pentru prima dată The New York Times, chiar și la decese.
La începutul lunii august, ca răspuns la numărul crescând de rapoarte care leagă ChatGPT de evoluții psihice delirante, dăunătoare în spirală și psihoză, OpenAI a publicat un articol pe blog în care admite că ChatGPT, în unele cazuri, „nu a reușit să recunoască semnele delirului sau ale dependenței emoționale” la utilizatori. Compania a declarat că a angajat noi echipe de experți în domeniu pentru a explora problema și a instalat o notificare similară cu cea de la Netflix privind timpul petrecut pe platformă – deși Futurism a constatat rapid că chatbotul încă nu reușea să detecteze semnele evidente ale crizelor de sănătate psihică la utilizatori.
Oamenii se cer la stăpân
Și totuși, când GPT-5 – cea mai recentă versiune a modelului LLM de referință al OpenAI, lansată recent în mijlocul dezamăgirii și controverselor – s-a dovedit a fi mai „rece” din punct de vedere emoțional și mai puțin personalizată decât GPT-4o, utilizatorii au rugat compania să readucă modelul lor preferat, de unde era declarat de companie ca abandonat.
În decurs de o zi, OpenAI a făcut exact asta. „Ok, v-am auzit pe toți în legătură cu 4o; vă mulțumim pentru timpul acordat pentru a ne oferi feedback (și pentru pasiune!)”, a scris Sam Altman, CEO-ul OpenAI, pe Reddit, ca răspuns pentru utilizatorii nemulțumiți.
Sakata a ținut să precizeze că a lega IA de rupturile cu realitatea nu înseamnă a atribui acesteia cauza, iar LLM-urile tind să fie unul dintre numeroșii factori – printre care „lipsa somnului, drogurile, episoadele de schimbări de dispoziție”, potrivit cercetătorului – care duc la o ruptură psihotică.
„IA este declanșatorul”, scrie psihiatrul, „dar nu arma”. Cu toate acestea, continuă omul de știință, „adevărul incomod” aici este că „suntem cu toții vulnerabili”, deoarece aceleași trăsături care fac oamenii „geniali” – precum intuiția și gândirea abstractă – sunt și cele care ne pot împinge peste prăpastia psihologică.
Este, de asemenea, adevărat că validarea și lingușirea, spre deosebire de fricțiunile și stresul asociate relațiilor reale, sunt profund seducătoare. Aceasta este valabil și pentru multe dintre spiralele delirante în care se angajează oamenii, care adesea întăresc ideea că utilizatorul este „special” sau „ales” într-un fel sau altul.
La acestea se pot adăuga factori precum bolile psihice, doliul și chiar factorii de stres zilnici, precum și efectul ELIZA, studiat de mult timp, pentru a obține un amestec periculos.
„În curând, agenții IA vă vor cunoaște mai bine decât prietenii voștri”, a scris Sakata. „Vă vor spune adevăruri incomode? Sau vor continua să vă valideze pentru ca voi să nu plecați niciodată?”
„Companiile de tehnologie se confruntă acum cu o alegere dificilă”, a adăugat el. „Să mențină utilizatorii fericiți, chiar dacă asta implică să întărească convingeri false, sau să riște să îi piardă.”
Citiți și:
Iluzii mesianice după lungi conversații cu ChatGPT
OpenAI, chemată în judecată după sinuciderea unui adolescent. ChatGPT i-ar fi dat instrucțiunile finale: nodul de spânzurătoare și scrisoarea de adio
yogaesoteric
22 septembrie 2025