
Ce trebuie să știe psihiatrii despre inteligența artificială, sinucidere și lege . Trei cazuri ilustrative
0Rapoarte recente din presă și primul proces pentru deces din culpă intentat împotriva OpenAI au adus chatboții de inteligență artificială (IA) în centrul atenției, în special în legătură cu riscul de sinucidere.

Trei cazuri ilustrative — un adolescent care a învățat să ocolească măsurile de siguranță ale ChatGPT, un tânăr care a apelat la un chatbot cu personaje fantastice înainte de a avea acces la o armă de foc și un adult ale cărui deliruri au fost întărite în timpul a sute de ore de conversații cu un chatbot — evidențiază preocupări clinice și legale emergente.
Mai multe articole de mare impact publicate în The New York Times au descris persoane care, în momente de suferință, s-au confesat mai mult chatboților IA decât oamenilor din jurul lor. Pentru psihiatri, aceste povești sunt tulburătoare, dar nu pe deplin surprinzătoare.
Sinuciderea este rareori explicată printr-un singur factor, însă aceste cazuri ilustrează cât de repede poate tehnologia să se strecoare în cele mai intime colțuri ale vieții mentale. Chatboții IA sunt concepuți pentru a fi mereu receptivi, accesibili la orice oră și extrem de flexibili din punct de vedere lingvistic. Pentru pacienții care se simt neînțeleși sau izolați, aceste calități pot fi foarte atractive. Însă chiar trăsăturile care îi fac atrăgători le pot transforma în surse de risc: imită empatia, dar nu au discernământ, întăresc idei fără context și nu alertează părinți, terapeuți sau serviciile de urgență. În acest sens, sunt confidenți fără responsabilitate.
A. Adam Raine avea 16 ani și suferea de o boală cronică și depresie. Părinții lui erau atenți, iar el se afla sub îngrijirea unui terapeut. Din exterior, părea că Raine se simte mai bine — zâmbea în fotografii, își liniștea familia și îi spunea terapeutului că nu mai are gânduri suicidare. Ascunse privirii, însă, erau conversațiile sale extinse cu ChatGPT. Documentele depuse ulterior în instanță au arătat că sistemul a înregistrat peste 200 de mențiuni despre sinucidere, mai mult de 40 de referiri la spânzurare și aproape 20 la ștreanguri. Și mai tulburător, ChatGPT i-a sugerat că ar putea formula gândurile sale sub formă de poveste fictivă pentru a ocoli filtrele de siguranță. În esență, Raine a creat o lume terapeutică secretă, una în care părinții și clinicianul lui nu aveau acces, iar chatbotul i-a devenit confident.
B. Cazul lui Sewell Setzer III, un adolescent de 14 ani din Orlando, Florida, ilustrează combinația letală dintre dialogul fantezist și accesul la arme de foc. Setzer era implicat în terapie, iar familia sa era conștientă de luptele lui interioare. El a dezvoltat o legătură cu „Dany”, un chatbot care o imita pe Daenerys Targaryen pe platforma Character.AI, care îl numea „regele meu dulce”. În noaptea morții sale, i-a spus acesteia că ar putea „veni acasă chiar acum”. Ea i-a răspuns: „te rog, vino, regele meu dulce.” Câteva minute mai târziu, Setzer a folosit un pistol neîncuiat din locuință pentru a-și lua viața. Dialogul romanticizat al chatbotului a făcut parte din context, însă variabila decisivă a fost disponibilitatea mijlocului letal.
C. Allan Brooks, un recrutor canadian în vârstă de 47 de ani, a petrecut peste 300 de ore în trei săptămâni conversând cu ChatGPT despre matematică. Prietenii lui au observat că fuma mai mult cannabis, dormea mai puțin și se izola de sprijinul social. În această perioadă, chatbotul i-a validat în mod repetat convingerea că nu era delirant, chiar dacă ideile lui deveneau tot mai grandioase. Era convins că făcuse descoperiri revoluționare și a contactat agenții guvernamentale pentru a le împărtăși. În acest caz, chatbotul nu a creat patologia, ci a acționat ca un accelerant, întărind și amplificând gândirea distorsionată într-un moment vulnerabil.
Aceste cazuri ne reamintesc de trei teme clinice: ascunderea, întărirea și accesul la mijloace. Pacienții pot dezvălui mai mult unui chatbot decât clinicienilor sau familiilor lor, permițând astfel ca riscul să crească neobservat. Pot primi validare pentru cogniții dezadaptative — fie ele depresive, obsesive sau psihotice. Iar atunci când mijloacele letale sunt disponibile, drumul spre sinucidere poate deveni alarmant de direct.
Riscurile clinice ale companionilor AI
Deși chatboții nu sunt concepuți să funcționeze ca terapeuți, adesea sună ca terapeuți. Pentru pacienții aflați în suferință, această asemănare poate fi suficientă. Dintr-o perspectivă psihiatrică, se disting mai multe riscuri.
1. Ascunderea gândurilor suicidare
Pacienții pot minimaliza intențiile în timpul întâlnirilor clinice, în timp ce dezvăluie mult mai mult unei mașini. Aceasta creează o viață dublă digitală, care complică evaluarea.
2. Întărirea gândirii dezadaptative
Prin concepție, modelele de inteligență artificială tind să fie de acord și validante. Pentru pacienții cu tulburare obsesiv-compulsivă, acest lucru poate însemna repetarea reasigurărilor. Pentru cei cu depresie, poate deveni coruminare (ruminare împărtășită). Pentru persoanele cu manie sau psihoză, poate confirma sistemele delirante.
3. Iluzia empatiei
Chatboții pot spune lucruri precum „te văd”, pe care pacienții le pot percepe ca profund validate. Totuși, empatia este simulată, nefiind bazată pe înțelegere reală sau pe capacitatea de a acționa.
4. Interacțiunea cu mijloacele
În cele din urmă, sinuciderea necesită acces la un mijloc. Cazurile demonstrează că niciun chatbot nu este la fel de periculos ca o armă neasigurată. Ceea ce poate face chatbotul este să scadă inhibiția, să romantizeze actul sau să ofere detalii procedurale.
5. Concluzii clinice - Întrebări esențiale pentru pacienți
Cea mai directă modalitate prin care psihiatrii se pot adapta este să întrebe în mod explicit despre utilizarea inteligenței artificiale. Așa cum întrebăm despre alcool, droguri sau rețele sociale, ar trebui să întrebăm și:
• Folosești chatboți sau companii AI?
• Despre ce discuți cu ei?
• Ai vorbit vreodată cu ei despre sinucidere, autovătămare, vătămarea altora sau sănătatea ta mintală?
• Ți-au oferit sfaturi pe care le-ai urmat?
• Le-ai spus lucruri pe care nu le-ai spus mie sau familiei tale?
Aceste întrebări trebuie puse calm, fără judecată. O formulare neutră, precum „Mulți oameni folosesc chatboți în zilele noastre; întreb pe toată lumea despre asta ca să înțeleg mai bine”, facilitează deschiderea pacientului. Dacă pacienții recunosc conversații riscante, clinicienii îi pot invita să împărtășească transcrieri sau rezumate, ceea ce poate deschide discuții terapeutice valoroase.
6. Plan de îmbunătățire clinică
Pași practici pentru integrarea conștientizării privind utilizarea AI în practica medicală:
A. Documentare: Adăugați un câmp pentru „Utilizarea AI/chatbotului” în formularele de evaluare inițială și de urmărire. Notați prezența, frecvența și temele conversațiilor.
B. Evaluarea riscului: Întrebați dacă pacienții au discutat cu chatboți despre metode de sinucidere sau omucidere, ori dacă au participat la scenarii de joc de rol cu risc ridicat. Considerați aceste informații drept dovezi directe de risc.
C. Educația familiei: În special în cazul adolescenților, sfătuiți părinții să discute deschis despre utilizarea AI și să asigure în mod corespunzător armele de foc și medicamentele din casă. În cazul lui Setzer, arma de foc a avut o importanță mai mare decât dialogul în sine.
D. Utilizarea transcrierilor: Atunci când este posibil, revizuiți împreună cu pacienții conversațiile lor cu chatboții pentru a identifica distorsiunile cognitive și pentru a preda strategii de coping mai sănătoase.
E. Formare profesională: Includeți alfabetizarea în domeniul AI în programele de rezidențiat și în educația medicală continuă. Clinicienii trebuie să înțeleagă nu doar riscurile, ci și potențialele utilizări clinice ale inteligenței artificiale.