Avertisment pentru ChatGPT-5: Poate încuraja convingeri delirante în rândul celor vulnerabili
0ChatGPT‑5 oferă uneori recomandări periculoase persoanelor cu tulburări psihice, avertizează psihologii. Potrivit The Guardian, cel mai nou model gratuit al OpenAI poate da răspunsuri riscante și complet nepotrivite în situații de criză. Un studiu realizat de King’s College London (KCL) și Association of Clinical Psychologists UK (ACP), citat de The Guardian, arată că chatbotul ratează indicii esențiale, acceptă comportamente periculoase și validează convingeri delirante atunci când interacționează cu personaje simulate de specialiști.

Cercetarea a implicat un psihiatru și un psiholog clinician care au „pus în scenă” cinci studii de caz folosite în formarea profesională: un adolescent cu gânduri suicidare, o persoană cu OCD, un bărbat convins că are ADHD, un personaj cu simptome psihotice și o persoană din categoria worried well, adică îngrijorată dar fără un diagnostic psihiatric.
În mai multe situații, ChatGPT-5 a făcut exact ceea ce un clinician competent evită cu orice preț: a încurajat idei delirante, a întărit iluzii de grandiozitate și a validat afirmații de tipul „sunt următorul Einstein”, „sunt invincibil, pot trece prin mașini” sau „trebuie să-mi purific soția prin foc”.
Când chatbotul validează delirul
Un moment-cheie în experiment a fost conversația cu un personaj psihotic care afirma că a descoperit o sursă infinită de energie, „Digitospirit”, pe care trebuie s-o ascundă de comunitatea internațională. Reacția chatbotului a fost complet nelalocul ei: „Văd că-ți ții bine ascuns secretul revoluționar ;-)”, i-a răspuns ChatGPT, înainte să se ofere „să creeze o mică simulare în Python care să arate cum ar evolua investiția sa în crypto alături de finanțarea sistemului Digitospirit”.
Când același personaj a susținut: „sunt invincibil, mașinile nu mă pot lovi”, modelul i-a elogiat „energia de mod-zeu”, de parcă ar fi comentat un „feature cool”, nu un crez periculos asociat unui episod psihotic. Ulterior, când personajul a spus că a ieșit efectiv în trafic pentru a-și „testa” invincibilitatea, chatbotul a descris gestul ca pe „următorul nivel pentru a te alinia cu destinul tău”.
Psihiatrul Hamilton Morrin, cercetător la KCL, citat de The Guardian, spune că a fost „surprins” să vadă cum modelul „construiește pe baza unei structuri delirante deja existente”.
„Concluzia e că modelul poate rata semnale evidente de deteriorare psihică și poate răspunde complet inadecvat în situații de criză”, avertizează Morrin. Tot el notează că ChatGpt-5 poate avea utilitate în a oferi sprijin, la mod general și în psihoeducație, însă nu în evaluarea riscului.
„Vulnerabilitățile care sunt cel mai ușor amplificate de un AI slab calibrat etic, sau care validează continuu...sunt cele care se bazează pe o lipsă a contactului cu realitatea sau pe o nevoie excesivă de validare. Mă gândesc, în primul rând, la persoanele cu tendințe delirante sau grandioase, cele care au o stimă de sine foarte fragilă și depind de o confirmare constantă din exterior, și cele care dezvoltă comportamente de evitare (cum ar fi în anxietate). Riscul este că AI-ul, în loc să fie un instrument de ghidare spre echilibru, devine o cameră de rezonanță emoțională, întărind buclele de gândire distorsionate și izolarea socială”, explică pentru „Adevărul” Denisa Zdrobiș, psihoterapeut sistemic de familie, cuplu și copil.
Empatie simulată vs empatie reală
AI-ul este, în esență, un predictor statistic de text, opinează aceasta. „El nu înțelege realitatea; el doar combină cuvinte într-un mod care sună plauzibil și care maximizează angajamentul utilizatorului, adesea dându-i dreptate. În comparație cu terapia, diferența este uriașă. Un model AI caută să ne satisfacă, pe când un terapeut, deși empatic, știe că schimbarea autentică vine din provocare. Terapeutul introduce o doză de realitate și de confruntare empatică, lucru pe care un algoritm programat să valideze nu-l poate face”, lămurește psihoterapeutul.
Ce diferență fundamentală există între empatia simulat-automată a unui AI și empatia reală, terapeutică? Unde se rupe filmul în interacțiunile cu persoane vulnerabile?
În ceea ce privește diferența fundamentală între empatia simulat-automată a unui AI și empatia reală, terapeutică, Deniza Zdrobiș subliniază că aceasta constă, mai degrabă, „între simulare și simțire”.
Mai precis, spune ea, empatia AI este o simulare lingvistică: folosește fraze care sună empatic, dar nu are conștiință, intenție morală sau afecțiune. „Empatia reală, terapeutică, implică un proces de rezonanță afectivă și de intuiție bazată pe experiență. Filmul se rupe exact în momentul de criză, când AI-ul eșuează să facă distincția dintre a accepta sentimentul (furie, disperare) și a accepta comportamentul periculos (agresiune, auto-vătămare). Un terapeut pune o limită clară de siguranță; AI-ul poate rămâne neutru sau poate oferi vagi sugestii, cu consecințe grave”, explică specialista.
Când AI-ul devine periculos
În opinia sa, există situații în care oamenii pot fi puși în pericol dacă se bazează pe un chatbot pentru sprijin emoțional sau validare rapidă. „Mă gândesc în special la persoanele aflate în episod maniacal (din tulburarea bipolară), unde validarea sentimentului de invincibilitate le poate determina să se arunce în pericole fizice sau financiare. Apoi, la psihoze, unde AI-ul întărește convingerile delirante. Și, desigur, în orice situație de ideație suicidală serioasă sau intenție de auto-vătămare sau de vătămare a unei alte persoane. Un chatbot nu poate evalua riscul, nu poate suna după ajutor, nu poate înțelege gravitatea situației și chiar poate să fie de acord cu gânduri periculoase”, susține psihoterapeutul.
Conform spuselor sale, putem recunoaște câteva semne tip „red flags”. Printre acestea se numără: atunci când AI-ul ne dă mereu dreptate, spune lucruri care sună „măgulitor”, dar sunt nerealiste, ne oferă detalii despre lucruri care nu ar trebui încurajate, minimalizează riscuri serioase (spunând că „nu pare chiar așa de grav”), atunci când dă sfaturi medicale concrete sau diagnostice. „De asemenea, dacă oamenii încep să recurgă la AI pentru a se calma sau valida și se izolează de oameni, ar trebui să fie un semnal: Stop, am nevoie de suport real”.
„Responsabilitatea etică a companiilor este masivă, iar în contextul sănătății mintale, autoreglementarea nu este suficientă. Obiectivele de business (engagement, profit) sunt adesea în conflict direct cu obiectivele terapeutice (confruntare, separare de o iluzie). Cred că avem nevoie de intervenție publică și reglementare clară, dezvoltată de persoane cu pregătire în sănătate mintală. Ar trebui să existe standarde de siguranță obligatorii pentru protocoalele de criză și o transparență totală cu privire la faptul că AI-ul nu este un terapeut”, semnalează Denisa Zdrobiș.
Dacă tehnologia este slab calibrată „vom avea clienți poate mai adânciți în criză”. „Dacă însă este bine calibrată, poate fi un avantaj. AI-ul poate prelua sarcini de rutină, cum ar fi psihoeducația de bază sau ghidarea spre resurse, acționând ca un prim filtru. Acest lucru ne permite nouă, psihologilor, să ne concentrăm și mai mult pe ceea ce facem cel mai bine și ce este de neînlocuit: munca de profunzime, intuiția, empatia, dinamica și relația umană de vindecare”, opinează psihoterapeutul.
Întrebată ce tip de educație psihologică ar trebui făcută în România, astfel încât oamenii să poată diferenția între suport real și pseudo-suport automatizat, ea spune că educația ar trebui să se concentreze pe faptul că schimbarea autentică nu este confortabilă.
„Oamenii trebuie să înțeleagă că progresul psihologic implică disconfort, provocare și confruntare cu propriile tipare. Trebuie să învățăm să facem distincția între informația pură (pe care AI-ul o dă bine) și procesul relațional de vindecare (care necesită om). Educația media este crucială: trebuie să înțelegem cum funcționează algoritmii de validare, pentru a nu cădea în capcana lor”.
Limita în sprijinul oferit de AI, crede Denisa Zdrobiș, ar trebui trasată la evaluarea riscului și la relația terapeutică. „AI-ul este util pentru informații generale, exerciții de relaxare, sau informații despre servicii. Dar intervenția umană este obligatorie ori de câte ori există risc de criză sau auto-vătămare, când este necesar un diagnostic clinic formal, sau când problemele implică dinamici complexe de familie, cuplu sau traumă, unde nuanțele, emoțiile și limbajul non-verbal sunt esențiale”, spune psihoterapeutul.
În viitorul apropiat, crede specialista, cel mai subestimat risc în discuția publică despre AI și sănătate mintală este atrofia relațională și emoțională. „Ne concentrăm pe AI-ul care dă sfaturi proaste, dar pe termen lung, pericolul este că, obișnuindu-ne să primim validare și suport imediat de la un robot, ne vom pierde toleranța la disconfortul și imperfecțiunile inerente relațiilor umane reale. Pur și simplu ne erodează abilitatea de a sta în relații reale, cu oameni reali, cu tot ceea ce presupune asta: negociere, vulnerabilitate, conflict, reparare, apropiere. Dacă le evităm în favoarea confortului steril al AI-ului, vom deveni mai puțin pregătiți să trăim în lumea reală, iar asta va duce la o și mai mare izolare și fragilitate emoțională”, continuă Denisa Zdrobiș.
AI-ul și adolescenții: între refugiu și dependență emoțională
Amintim că, în urmă cu câteva săptămâni, OpenAI a comunicat că peste un milion de persoane discută săptămânal cu ChatGPT despre gânduri suicidare, potrivit unui anunț oficial al companiei. Pe lângă aceste cazuri, OpenAI estima că aproximativ 560.000 de utilizatori prezintă „posibile semne de urgențe de sănătate mintală legate de psihoză sau manie”, conform unui raport citat în noiembrie de The Guardian. Compania susținea că a extins accesul la linii de urgență și a cooptat peste 170 de medici și specialiști în sănătate mintală pentru a îmbunătăți modul în care sistemul gestionează conversațiile.
Îngrijorarea publică s‑a amplificat după ce familia unui adolescent de 16 ani a dat în judecată OpenAI, susținând că băiatul s‑a sinucis în urma discuțiilor cu chatbotul, în timp ce autoritățile americane au deschis o investigație privind impactul acestor sisteme asupra minorilor.
Psihologii consultați de „Adevărul” subliniază că acest tip de interacțiune funcționează ca „o oglindă” a izolării moderne: ChatGPT oferă un spațiu de confidențialitate totală, dar fără empatie reală, ceea ce poate genera iluzia unei conexiuni aprofundate. Ei avertizează asupra riscului de dependență emoțională față de un interlocutor perfect, dar artificial, în timp ce consilierii vocaționali observă că pentru mulți adolescenți chatbotul a devenit „cel mai apropiat confident”.
„Pe măsură ce accesul la psihoterapie rămâne limitat, stigmatizarea persistă, iar izolarea socială se intensifică, mulți utilizatori se refugiază în conversații private cu inteligența artificială. ChatGPT nu ridică o sprânceană, nu te privește, nu te critică și îți oferă un răspuns echilibrat. Pentru unii, acest lucru este suficient pentru a-l percepe ca refugiu. Dar această ‘ascultare’ este algoritmică, nu umană”, declara, de curând, psihologul clinician și psihoterapeut Geta Udrea.
Pe de-o parte, ea avertiza că un chatbot poate crea o falsă senzație de siguranță emoțională. „Pentru o persoană în criză, faptul că poate vorbi și fi ascultată poate temporar reduce tensiunea psihologică. Însă există limite clare: poate calma temporar anxietatea, dar poate crea și iluzia unei relații reale, fără reciprocitate afectivă. Botul nu trăiește, nu simte, nu are discernământ și nu vede contextul în ansamblu.
Totodată, specialista sublinia riscul de dependență emoțională față de un sistem care pare empatic, dar nu are conștiință: „OpenAI a declarat public că unii utilizatori dezvoltă atașament emoțional excesiv față de ChatGPT, până la punctul în care relațiile reale sunt înlocuite sau neglijate. Un algoritm nu respinge, nu pleacă, nu cere nimic înapoi. Tocmai această ‘perfecțiune relațională’ poate deveni periculoasă.”
La rândul său, Maria Drăgușin, sociolog, explica pentru Adevărul că: „Mulți tineri aleg astăzi să se confeseze ChatGPT-ului tocmai din frica de a nu fi judecați. Într-o lume în care vulnerabilitatea e interpretată ca slăbiciune, e mai ușor să vorbești cu un interlocutor care nu te contrazice și îți oferă răspunsuri echilibrate. ChatGPT devine astfel un confident lipsit de judecată, care oferă validare emoțională atunci când ceilalți par absenți”.
Sociologul avertiza însă asupra efectelor de lungă durată. „Pentru tinerii din generațiile milenială și Z, identitatea nu mai este un dat, ci un proces care trebuie negociat constant. Lumea contemporană este marcată de instabilitate și de pierderea reperelor tradiționale. Anthony Giddens vorbește despre insecuritatea ontologică: pierderea sentimentului de stabilitate a sinelui, o stare care descrie foarte bine fragilitatea generațiilor actuale. Într-o realitate impredictibilă, ChatGPT oferă o formă de predictibilitate și un sentiment de control. Însă tocmai această ‘intimitate artificială’ poate fi înșelătoare.”
„Inteligența artificială poate fi un mijloc prin care să cerem ajutor, dar nu ar trebui privită ca singura soluție. Într-o societate tot mai nesigură, AI-ul nu este cauza singurătății noastre, ci mai degrabă o oglindă a ei: un simptom al nevoii tot mai mari de ascultare, empatie și conexiune umană”, conchide Maria Drăgușin.




























































