Săptămânal, peste un milion de persoane manifestă intenții suicidale când conversează cu ChatGPT. Estimările OpenAI
0Peste un milion de utilizatori ChatGPT trimit în fiecare săptămână mesaje care includ „indicatori expliciți ai unor posibile planuri sau intenții suicidale”, potrivit unui articol publicat luni pe blogul OpenAI.

Cifrele anunțate reprezintă una dintre cele mai directe declarații ale gigantului din domeniul inteligenței artificiale cu privire la modul în care IA poate agrava problemele de sănătate mintală, potrivit The Guardian.
Constatarea, care face parte dintr-o actualizare privind modul în care chatbotul gestionează conversațiile sensibile, este una dintre cele mai directe declarații ale OpenAI cu privire la amploarea cu care IA poate agrava problemele de sănătate mintală.
„Urgențe de sănătate mintală legate de psihoză sau manie”
În plus față de estimările privind ideile suicidale și interacțiunile conexe, OpenAI a mai precizat că aproximativ 0,07% dintre utilizatorii activi într-o anumită săptămână – aproximativ 560.000 din cei 800 de milioane de utilizatori săptămânali – prezintă „semne posibile de urgențe de sănătate mintală legate de psihoză sau manie”.
Postarea a avertizat că aceste conversații erau dificil de detectat sau de măsurat și că aceasta era o analiză inițială.
Un adolescent s-a sinucis după o interacțiune intensă cu ChatGPT
Gigantului din domeniul inteligenței artificiale OpenAI se confruntă cu o atenție sporită în urma unui proces foarte mediatizat intentat de familia unui adolescent care s-a sinucis după o interacțiune intensă cu ChatGPT.
Comisia Federală pentru Comerț a lansat, în septembrie, o anchetă amplă asupra companiilor care creează chatboti cu IA, inclusiv OpenAI, pentru a afla cum măsoară impactul negativ asupra copiilor și adolescenților.
Răspunsuri mai dăunătoare decât înainte
Concluziile testelelor au fost că „actualizarea” ChatGPT oferă răspunsuri mai dăunătoare decât înainte.
OpenAI a precizat însă că recenta actualizare GPT-5 a redus numărul de comportamente nedorite ale produsului său și a îmbunătățit siguranța utilizatorilor într-o evaluare a modelului care a implicat peste 1.000 de conversații despre automutilare și sinucidere.
„Noile noastre evaluări automate acordă noului model GPT-5 un scor de 91% de conformitate cu comportamentele dorite, comparativ cu 77% pentru modelul GPT-5 anterior”, se arată în postarea companiei.
Potrivit OpenAI, GPT-5 a extins accesul la liniile telefonice de urgență și a adăugat mementouri pentru utilizatori să ia pauze în timpul sesiunilor lungi.
Gigantul a declarat că, pentru a aduce îmbunătățiri modelului, a recrutat 170 de medici din rețeaua sa globală de experți în domeniul sănătății pentru a-i asista cercetările din ultimele luni, care au inclus evaluarea siguranței răspunsurilor modelului său și ajutor la redactarea răspunsurilor chatbotului la întrebări legate de sănătatea mintală.
„Ca parte a acestei activități, psihiatrii și psihologii au analizat peste 1.800 de răspunsuri ale modelului referitoare la situații grave de sănătate mintală și au comparat răspunsurile noului model de chat GPT-5 cu cele ale modelelor anterioare”, a precizat OpenAI.
Îngrijorări
De ceva vreme, cercetătorii din domeniul IA și susținătorii sănătății publice sunt îngrijorați de tendința chatbot-urilor de a confirma deciziile sau iluziile utilizatorilor, indiferent dacă acestea pot fi dăunătoare, o problemă cunoscută sub numele de „sicofanție”.
Îngrijorările specialiștilor sunt legate și de faptul că oamenii folosesc chatbot-urile IA pentru sprijin psihologic și avertizează că acest lucru ar putea dăuna utilizatorilor vulnerabili.
Limbajul utilizat în postarea OpenAI distanțează compania de orice legătură cauzală potențială între produsul său și crizele de sănătate mintală cu care se confruntă utilizatorii săi, notează The Guardian.

















































