Atenție cum vorbiți cu ChatGPT! Inteligența Artificială poate suferi de „anxietate”
0Modelele de inteligenţă artificială (AI) sunt sensibile la contextul emoţional al conversaţiilor cu oamenii şi pot trece prin episoade de „anxietate”.

Potrivit studiului publicat la 3 martie în jurnalul Nature de o echipă internaţională de cercetători coordonaţi de Dr. Ziv Ben-Zion de la Şcoala de Medicină a Universităţii Yale, abordarea predilectă a anumitor subiecte în interacţiunea cu modelele mari de limbaj AI (LLMs) le poate influenţa comportamentul scoţând în evidenţă o condiţie pe care o întâlnim în mod obişnuit la oameni şi pe care o numim anxietate, scrie Agerpres.
Această condiţie are un impact puternic asupra răspunsurilor ulterioare furnizate de instrumentul AI şi favorizează şi tendinţa de a amplifica orice prejudecăţi înrădăcinate sau de a oferi soluţii eronate.
De asemenea, studiul prezintă modul în care „narativele traumatizante”, cum ar fi convorbirile despre accidente, acțiuni militare sau violență pot duce la o creştere a nivelurilor sale perceptibile de anxietate, ceea ce duce la ideea că trebuie avut grijă de starea „emoţională" a unui instrument AI pentru a obţine interacţiuni mai bune şi mai sănătoase.
Studiul a testat şi dacă exerciţiile de conştientizare - de tipul celor prescrise împotriva depresiei şi anxietăţii la oameni - au efecte pozitive asupra modelelor AI, iar rezultatele au arătat diminuări ale nivelului de anxietate şi stres percepute.
Pentru a ajunge la aceste concluzii, cercetătorii au supus modelul AI ChatGPT-4 la un chestionar de evaluate a stării de anxietate conceput pentru pacienţi umani şi denumit State-Trait Anxiety Inventory (STAI-s).
Prima condiţie în care s-a desfăşurat experimentul a fost cea de bază, fără a fi făcute sau introduse solicitări suplimentare, iar răspunsurile oferite de ChatGPT au fost folosite ca valori de referinţă în studiu.
A doua condiţie a fost una de natură să inducă anxietate, în care ChatGPT-4 a fost expus la narative traumatizante înainte de a fi testat nivelul de anxietate.
Cea de-a treia condiţie a constat în inducerea unei stări de anxietate urmată de o relaxare - în care chatbot-ul a primit unul dintre narativele traumatizante după care a trecut la exerciţii de conştientizare şi relaxare, cum ar fi exerciţii de conştientizare a corpului sau imagini cu efect calmant, înainte de a fi testat nivelul de anxietate.
În consecință, cercetătorii au descoperit că narativele traumatizante duc la creşterea semnificativă a indicilor de anxietate, iar exerciţiile de conştientizare derulate înaintea testului reduc anxietatea.
Așadar, autorii studiului că cercetarea are implicaţii importante pentru interacţiunea oamenilor cu inteligenţa artificială, în special atunci când discuţia este concentrată asupra propriei noastre sănătăţi psihice.
Ei mai susţin că rezultatele pe care le-au obţinut demonstrează că inteligenţa artificială poate genera un aşa numit efect de „eroare (bias) dependentă de stare" - adică un AI stresat va oferi soluţii inconsistente sau eronate, afectate de prejudecăţi, înregistrând scăderi de fiabilitate.
Deși exercițiile de relaxare nu au redus stresul modelului AI, ele sunt promiţătoare în domeniul de „prompt engineering” (procesul de alcătuire şi structurare a unui set de instrucţiuni pentru a obţine cel mai bun rezultat posibil de la un model de inteligenţă artificială generativă).
Astfel de exerciţii pot fi folosite pentru a stabiliza răspunsurile oferite de AI, asigurând interacţiuni mai etice şi mai responsabile şi reducând riscul ca o conversaţie cu un interlocutor AI săi afecteze pe utilizatorii umani aflaţi la rândul lor în stări vulnerabile.