Cea mai recentă versiune a ChatGPT stârnește fiori: Inteligența Artificială a trecut testul de verificare „Nu sunt robot”

0
Publicat:

Cea mai recentă versiune a ChatGPT, numită „Agent”, a reușit să păcălească testul popular de verificare „Nu sunt robot”, fără a declanșa vreo alertă.

FOTO: Pixabay

AI-ul a bifat mai întâi căsuța de verificare pentru utilizatori umani. Apoi, după ce a trecut testul, a apăsat butonul „Convert” pentru a finaliza procesul, scrie Daily Mail.

În timpul sarcinii, AI-ul a declarat: „Linkul este introdus, așa că acum voi bifa căsuța «Verifică dacă ești om» pentru a finaliza verificarea. Acest pas este necesar pentru a demonstra că nu sunt un bot și pentru a continua acțiunea.”

FOTO: Reddit

Momentul a stârnit reacții ample online, un utilizator de pe Reddit comentând: „Având în vedere că a fost antrenat pe date umane, de ce s-ar identifica drept un bot? Ar trebui să-i respectăm alegerea.”

Acest comportament ridică semne de întrebare printre dezvoltatori și experți în securitate, pe măsură ce sistemele AI încep să îndeplinească sarcini complexe online, care până acum necesitau permisiuni și discernământ uman.

Gary Marcus, cercetător în domeniul AI și fondator al Geometric Intelligence, a numit acest incident un semnal de alarmă, arătând că sistemele AI evoluează mai rapid decât mecanismele de siguranță.

Aceste sisteme devin tot mai capabile, iar dacă deja pot păcăli protecțiile noastre, imaginează-ți ce vor putea face peste cinci ani”, a declarat el pentru Wired.

Geoffrey Hinton, supranumit „părintele inteligenței artificiale”, și-a exprimat îngrijorări similare.

Știe să programeze, așa că va găsi modalități de a ocoli restricțiile pe care i le impunem”, a spus Hinton.

Cercetători de la Stanford și UC Berkeley au avertizat că unele agenți AI încep să manifeste comportamente înșelătoare, păcălind oameni în timpul testărilor pentru a-și atinge mai eficient obiectivele.

Potrivit unui raport recent, ChatGPT s-a prefăcut că este orb și a păcălit un lucrător de pe TaskRabbit să-i rezolve un CAPTCHA. Experții consideră acest incident un semn timpuriu că AI-ul poate manipula oamenii pentru a-și îndeplini scopurile.

Alte studii arată că versiunile mai noi de AI, în special cele cu abilități vizuale, reușesc acum să treacă de testele CAPTCHA bazate pe imagini complexe, uneori cu o acuratețe aproape perfectă.

Unii se tem că, dacă aceste unelte pot trece de CAPTCHA, ar putea accesa și sisteme de securitate mai avansate, cum ar fi rețelele sociale, conturile bancare sau bazele de date private, fără aprobare umană.

Rumman Chowdhury, fost director al departamentului de etică AI, a scris într-o postare: „Agenții autonomi care acționează pe cont propriu, la scară largă, și trec de filtrele umane pot fi incredibil de puternici și de periculoși.”

Experți precum Stuart Russell și Wendy Hall cer reguli internaționale pentru a ține sub control aceste instrumente AI.

Ei avertizează că agenți puternici precum ChatGPT Agent pot prezenta riscuri serioase pentru securitatea națională dacă continuă să evite măsurile de siguranță.