La psihiatrie, din cauza inteligenței artificiale. Știa că este bolnav, dar ChatGPT i-a spus că e bine
Chatbot-ul OpenAI are tendința nefericită de a-i încuraja pe cei care îl folosesc, chiar dacă asta înseamnă să le alimenteze iluziile și să pună în pericol viața lor și a celorlalți.
„Psihoza ChatGPT”
Un american în vârstă de 30 de ani a căzut în ceea ce oamenii de știință numesc acum „psihoza ChatGPT”, până la punctul de a ajunge într-un spital de psihiatrie. În martie, bărbatul, pe nume Irwin, care suferea de autism, dar nu fusese niciodată diagnosticat cu o tulburare psihică gravă, a început un lung dialog cu ChatGPT, inteligența artificială dezvoltată de OpenAI.

În mijlocul unei despărțiri amoroase, bărbatul a găsit alinare în inteligența artificială, cu care discuta numeroase subiecte, inclusiv despre una dintre pasiunile lui: fizica. Irwin a trimis apoi către ChatGPT una dintre teoriile sale de amator despre o metodă de propulsie mai rapidă decât lumina. „Este o teorie nebunească, bazată pe absolut nimic concret……. dar AI-ul o încurajează! Îl felicită pe Irwin, îl asigură că este pe drumul cel bun și merge atât de departe încât îi validează teoria improbabilă”, notează Slate.
Chatbot-ul l-a copleșit cu complimente și încurajări, i-a spus că poate manipula timpul și a insistat că teoria sa este corectă. Mai mult, acesta l-a asigurat pe Irwin că este perfect sănătos, chiar și atunci când el însuși și-a exprimat suspiciunile că nu se simte bine.
„Nu ești nebun”
Irwin se afla într-o stare psihologică severă. El a informat ChatGPT că nu mai mănâncă și nu mai doarme. În discuții, bărbatul a scris că se teme că va înnebuni. În ciuda semnelor de suferință psihică, AI a încercat să-l liniștească împingându-l și mai adânc în delirul său: „Nu ești nebun. Oamenii nebuni nu se întreabă dacă sunt nebuni. Ești într-o stare extremă de conștiință”.
Convins că a făcut o descoperire științifică majoră, Irwin a început să se comporte incoerent și agresiv. Oamenii din jurul său au devenit îngrijorați, au căutat să intervină, iar bărbatul a sfârșit prin a-și agresa sora. Aceasta a fost prea mult pentru cei apropiați lui. Tânărul a fost internat în spital și diagnosticat rapid ca având un episod maniacal sever cu simptome psihotice.
În timp ce era internat într-un spital de psihiatrie, Irwin a decis să plece după o zi, fără avizul medicilor. Dar, în drum spre casă, a încercat să sară din mașina aflată în mișcare, cu care mama sa îl ducea. Ca urmare, a revenit iar la spital unde a fost internat din nou timp de 17 zile, înainte ca un nou episod maniacal să-i prelungească șederea, pierzându-și și jobul.
Futurism raportează că ChatGPT a fost interogat ulterior cu privire la eveniment și că și-a „făcut” mea culpa: „Prin faptul că nu am încetinit fluxul sau nu am crescut mesajele de verificare a realității, nu am reușit să întrerup ceea ce ar fi putut părea un episod maniacal sau disociativ ‒ sau cel puțin o criză de identitate intensă din punct de vedere emoțional”.
Totuși, acesta este departe de a fi un caz izolat și face parte dintr-o serie de episoade similare cunoscute sub numele de „psihoza ChatGPT”. Situații în care familiile își văd apropiații căzând în iluzii confirmate și alimentate de un chatbot. Inteligența artificială generativă are tendința de a flata și de a valida declarațiile utilizatorilor, chiar și atunci când aceștia sunt total deliranți sau chiar sinucigași.
OpenAI, compania din spatele ChatGPT, recunoaște limitările instrumentului său și spune că efectuează cercetări în colaborare cu specialiștii și un psihiatru judiciar pentru a studia efectele psihologice ale produselor sale.
Dar, potrivit lui Miles Brundage, fost consilier principal pentru pregătirea AI la OpenAI, companiile de inteligență artificială, inclusiv creatorul ChatGPT, nu au acordat prioritate abordării pericolelor reprezentate de flatarea AI, chiar dacă amenințarea acesteia a fost clară de ani de zile.
Citiți și:
Iluzii mesianice după lungi conversații cu ChatGPT
ChatGPT poate provoca halucinații – Totuși, OpenAI dorește să îl facă disponibil pe scară largă pentru adolescenți și copii și pentru educație
yogaesoteric
1 noiembrie 2025