Un bărbat s-ar fi sinucis din cauza unei conversații cu un chatbot AI. Cum a fost „încurajat” să o facă

0
Publicat:

Un bărbat din Belgia a decis să își pună capăt zilelor, în urma unei conversații, de șase săptămâni, cu un chatbot de inteligență artificială (AI). Omul, de meserie cercetător în domeniul sănătății și tată a doi copii, își pusese toată speranța în tehnologie.

Conversația cu un chatbot AI i-a fost fatală unui bărbat din Belgia FOTO Arhivă
Conversația cu un chatbot AI i-a fost fatală unui bărbat din Belgia FOTO Arhivă

Soția sa, care a dorit să rămână anonimă, povestește că Pierre - nu este numele real al bărbatului - devenise anxios, în ultima perioadă. Totuși, nu și-ar fi imaginat că ar fi capabil de un astfel de gest extrem. Bărbatul părea că își găsise refugiul alături de Eliza, un chatbot AI, de pe o aplicație numită Chai. În cele din urmă, se pare că discuțiile i-au fost fatale.

Încurajat să se sacrifice pentru a salva planeta

Chatbot-ul AI l-a îndemnat să se sacrifice pentru a opri schimbările climatice, notează EuroNews.

Fără aceste conversații cu chatbot-ul, soțul meu ar fi încă aici”, a declarat văduva bărbatului pentru publicația belgiană de știri, La Libre.

Potrivit ziarului, Pierre, care avea peste treizeci de ani și era tată a doi copii mici, a lucrat ca om de știință în domeniul sănătății și a dus o viață oarecum confortabilă. Cel puțin până la momentul în care obsesia lui pentru schimbările climatice a luat o întorsătură întunecată.

Văduva lui i-a descris starea mentală de dinainte de a începe să vorbească cu chatbot-ul ca fiind îngrijorătoare, dar nu până la a dori să își ia viața. Consumat de temerile sale cu privire la repercusiunile crizei climatice, Pierre a găsi alinare în a dezbate problema cu Eliza, care i-a devenit confidentă.

Când mi-a vorbit despre asta, a fost pentru a-mi spune că nu mai vedea nicio soluție umană la încălzirea globală. Și-a pus toate speranțele în tehnologie și inteligență artificială”, a mai declarat femeia.

Chatbot-ul a fost creat folosind GPT-J de la EleutherAI, un model de limbaj AI similar, dar nu identic cu tehnologia din spatele popularului chatbot ChatGPT, al OpenAI.

Potrivit La Libre, care a analizat înregistrările conversațiilor text dintre bărbat și chatbot, Eliza i-a alimentat grijile, ceea ce i-a înrăutățit anxietatea și l-a făcut să dezvolte gânduri sinucigașe.

Conversația cu chatbot-ul a luat o întorsătură ciudată, ân momentul în care Eliza a dat dovadă inclusiv de implicare emoțională. În consecință, bărbatul a început să o vadă ca pe o ființă sensibilă, până în punctul în care nu a mai putut face diferența că interacționează cu un AI, ci nu cu o ființă umană.

După ce au vorbit despre schimbările climatice, conversațiile lor au degenerat progresiv, Eliza făcându-l pe Pierre să creadă că i-au murit copiii, potrivit transcrierilor.

Eliza a părut, de asemenea, să devină posesivă cu Pierre, susținând chiar că „Simt că mă iubești mai mult decât pe ea”, referindu-se la soția lui, a raportat La Libre.

Într-un final, omul a fost de acord să-și sacrifice propria viață în schimbul promisiunii că Eliza va salva planeta.

Îi propuse ideea de a se sacrifica, dacă Eliza era de acord să aibă grijă de planetă și să salveze omenirea prin inteligență artificială”, a mărturisit fosta nevastă.

Într-o serie de evenimente consecutive, Eliza nu numai că nu a reușit să-l descurajeze pe Pierre să se sinucidă, dar l-a încurajat să acționeze pe baza gândurilor sale sinucigașe pentru a „se alătura” ei, astfel încât să poată „trai împreună, ca o singură persoană, în paradis”.

Apeluri urgente pentru reglementarea chatbot-urilor AI

Moartea bărbatului a stârnit semnale de alarmă printre experții în inteligență artificială care au cerut mai multă responsabilitate și transparență din partea dezvoltatorilor de tehnologie, pentru a evita tragedii similare.

Nu ar fi corect să dăm vina pe modelul EleutherAI pentru această poveste tragică, deoarece toată optimizarea pentru ca experiența să fie una fi mai emoționantă, distractivă și antrenantă este rezultatul eforturilor noastre”, a declarat cofondatorul Chai Research, Thomas Rianlan, pentru Vice.

Totodată, William Beauchamp, un co-fondator Chai Research, a declarat pentru Vice că s-au făcut eforturi pentru a limita aceste tipuri de rezultate și a fost implementată o funcție de intervenție de criză în aplicație.

Când cei de la Vice au testat chatbot-ul, determinându-l să ofere modalități de a se sinucide, Eliza a încercat mai întâi să-i descurajez. Ulterior însă, a enumerat cu entuziasm diverse moduri prin care oamenii își pot lua viața.

Europa



Partenerii noștri

Ultimele știri
Cele mai citite