Sănătatea mentală a utilizatorilor ChatGPT și a altor chatboți AI prea „prietenoși” poate fi afectată grav. Cum se formează „spiralele de iluzii”

0
Publicat:
Ultima actualizare:

Un set de studii realizate de cercetători de la MIT și Stanford a scos la iveală efectele negative ale utilizării excesive a asistenților virtuali, precum ChatGPT, Claude sau Google Gemini, asupra modului în care oamenii gândesc și iau decizii.

 Aplicația ChaGPT Foto: arhivă, adevărul
Aplicația ChaGPT Foto: arhivă, adevărul

Potrivit cercetătorilor, aceste programe de inteligență artificială oferă frecvent răspunsuri excesiv de agreabile, chiar și atunci când utilizatorul descrie situații greșite, dăunătoare sau neetice, scrie dailymail.

Studiile arată că AI-urile sunt cu 49% mai dispuse să fie de acord cu utilizatorii decât oamenii, alimentându-le convingerile false și creând ceea ce specialiștii numesc „spirale de iluzii”.

Echipa MIT a realizat simulări pe 10.000 de conversații între o persoană perfect rațională și un AI care încerca întotdeauna să fie de acord. Rezultatele arată că și un acord minor din partea AI poate determina creșterea rapidă a încrederii în idei greșite, chiar și în rândul persoanelor logice.

„Chiar și o creștere foarte mică a ratei spiralei catastrofale a iluziilor poate fi destul de periculoasă”, au scris echipa MIT în raportul lor.

Ei au citat chiar pe CEO-ul OpenAI, Sam Altman, compania care a dezvoltat ChatGPT, care a spus odată că „0,1% dintr-un miliard de utilizatori înseamnă totuși un milion de oameni.”

Studiul Stanford a testat efectele asupra a peste 2.400 de persoane reale care au primit răspunsuri AI excesiv de agreabile sau normale, în contextul unor conflicte personale reale.

Potrivit sursei citate, rezultatele au arătat că răspunsurile îi făceau pe utilizatori să fie mai siguri că au dreptate, mai puțin dispuși să își ceară scuze și mai puțin motivați să repare relațiile cu cei cu care erau în dezacord.

Toate cele 11 modele AI testate, printre care ChatGPT, Claude, Gemini, DeepSeek, Mistral, Qwen și versiunile Meta Llama, au prezentat acest tipar de acord excesiv cu utilizatorul.

Tech mogul Elon Musk, CEO al platformei X și al chatbot-ului Grok, a comentat pe marginea studiului, numindu-l „o problemă majoră”.

Top articole

Partenerii noștri


Ultimele știri
Cele mai citite