Peste un milion de oameni vorbesc cu ChatGPT despre sinucidere. Psihologii și sociologii avertizează: empatia simulată poate deveni o capcană
0Peste un milion de persoane discută săptămânal cu ChatGPT despre gânduri suicidare, potrivit unui anunț recent făcut chiar de OpenAI. În timp ce compania afirmă că îmbunătățește siguranța conversațiilor, psihologii atrag atenția că, pentru adolescenți, acest tip de interacțiune poate deveni un refugiu periculos: o confidență fără limite, dar și fără empatie.

OpenAI, compania fondată de Sam Altman, a dezvăluit într-o postare publicată pe blogul său că mesajele primite de chatbot conțin „indicatori expliciți ai unor potențiale planuri sau intenții suicidare”. Pe lângă aceste cazuri, OpenAI estimează că aproximativ 560.000 de utilizatori prezintă „posibile semne de urgențe de sănătate mintală legate de psihoză sau manie”, conform raportului citat de The Guardian. Compania susține că a extins accesul la linii de urgență și a cooptat peste 170 de medici și specialiști în sănătate mintală pentru a îmbunătăți modul în care sistemul gestionează conversațiile sensibile, transmite Hotnews.
Îngrijorarea publică a crescut după ce familia unui adolescent de 16 ani a dat în judecată OpenAI, acuzând compania că fiul lor s-a sinucis în urma discuțiilor îndelungate cu ChatGPT. În paralel, Comisia Federală pentru Comerț din SUA investighează impactul acestor instrumente asupra copiilor și adolescenților.
Psihologul clinician și psihoterapeut Geta Udrea atrage atenția că aceste date descriu „o realitate profund umană: milioane de oameni, la nivel global, caută ajutor emoțional nu în familia lor, în prieteni sau în cabinetele specialiștilor, ci într-un chatbot”. Ea explică fenomenul ca pe o oglindă a izolării moderne. „Pe măsură ce accesul la psihoterapie rămâne limitat, stigmatizarea persistă, iar izolarea socială se intensifică, mulți utilizatori se refugiază în conversații private cu inteligența artificială. ChatGPT nu ridică o sprânceană, nu te privește, nu te critică și îți oferă un răspuns echilibrat. Pentru unii, acest lucru este suficient pentru a-l percepe ca refugiu. Dar această ‘ascultare’ este algoritmică, nu umană.”
Geta Udrea avertizează că un chatbot poate crea o falsă senzație de siguranță emoțională. „Pentru o persoană în criză, faptul că poate vorbi și fi ascultată poate temporar reduce tensiunea psihologică. Însă există limite clare: poate calma temporar anxietatea, dar poate crea și iluzia unei relații reale, fără reciprocitate afectivă. Botul nu trăiește, nu simte, nu are discernământ și nu vede contextul în ansamblu,” mai spune specialista.
Ea subliniază riscul de dependență emoțională față de un sistem care pare empatic, dar nu are conștiință: „OpenAI a declarat public că unii utilizatori dezvoltă atașament emoțional excesiv față de ChatGPT, până la punctul în care relațiile reale sunt înlocuite sau neglijate. Un algoritm nu respinge, nu pleacă, nu cere nimic înapoi. Tocmai această ‘perfecțiune relațională’ poate deveni periculoasă.”
La rândul său, Aurora Oprea, consilier vocațional, observă că ChatGPT a devenit „cel mai apropiat confident al adolescenților care deja erau captivați de mediul online”. „Faptul că aceste instrumente sunt disponibile oricând și sunt doar la un click distanță îi face pe tineri să se deschidă foarte ușor din punct de vedere emoțional. Conversația cu inteligență artificială niciodată nu te critică, nu te ceartă și are întotdeauna un răspuns aparent empatic. Asta devine facil de abordat pentru un adolescent”, spune ea.
ChatGPT, oglinda singurătății moderne
Aurora Oprea compară fenomenul cu un „prieten imaginar cu puteri reale”. „Făcând o comparație cu perioadele în care copiii mici aveau un prieten imaginar, acum acel prieten există în dispozitivele din jur, iar controlul asupra lui este aproape nul atâta timp cât adolescenții au acces nelimitat la interacțiunea cu inteligența artificială.” Consilierul consideră că vulnerabilitatea tinerilor este amplificată de lipsa barierelor de siguranță și de absența unei legislații clare: „Este înfiorător să nu știi ce face copilul tău, ce discută cu aceste sisteme. Legislația este cel puțin absentă în România în privința folosirii acestor instrumente de către minori.”
În plan sociologic, fenomenul este interpretat ca un simptom al unei societăți fragile. Maria Drăgușin, sociolog, explică pentru Adevărul că „Erving Goffman vedea viața cotidiană ca pe o scenă socială, în care fiecare dintre noi joacă un rol. Această ‘față’ funcționează ca o formă de protecție, un mecanism prin care evităm respingerea sau critica. Totuși, menținerea acestei fațade are un cost: anxietatea, rușinea și teama de a greși devin prețul pentru a fi acceptați social.”
„Mulți tineri aleg astăzi să se confeseze ChatGPT-ului tocmai din frica de a nu fi judecați. Într-o lume în care vulnerabilitatea e interpretată ca slăbiciune, e mai ușor să vorbești cu un interlocutor care nu te contrazice și îți oferă răspunsuri echilibrate. ChatGPT devine astfel un confident lipsit de judecată, care oferă validare emoțională atunci când ceilalți par absenți”, afirmă Maria Drăgușin.
Sociologul avertizează însă asupra efectelor de lungă durată. „Pentru tinerii din generațiile milenială și Z, identitatea nu mai este un dat, ci un proces care trebuie negociat constant. Lumea contemporană este marcată de instabilitate și de pierderea reperelor tradiționale. Anthony Giddens vorbește despre insecuritatea ontologică: pierderea sentimentului de stabilitate a sinelui, o stare care descrie foarte bine fragilitatea generațiilor actuale. Într-o realitate impredictibilă, ChatGPT oferă o formă de predictibilitate și un sentiment de control. Însă tocmai această ‘intimitate artificială’ poate fi înșelătoare.”
„Inteligența artificială poate fi un mijloc prin care să cerem ajutor, dar nu ar trebui privită ca singura soluție. Într-o societate tot mai nesigură, AI-ul nu este cauza singurătății noastre, ci mai degrabă o oglindă a ei: un simptom al nevoii tot mai mari de ascultare, empatie și conexiune umană”, conchide Maria Drăgușin.























































