A fost desemnat cuvântul anului 2023 de dicţionarul Cambridge: Este un termen folosit în legătură cu inteligenţa artificială

0
Publicat:

Dicţionarul Cambridge a anunțat că „hallucinate'' („a halucina'') a fost ales cuvântul anului 2023, după ce termenul a obţinut o definiţie suplimentară legată de producerea de informaţie falsă de către inteligenţa artificială (AI), informează DPA şi PA Media

Interesul pentru ChatGPT este în creștere. FOTO: Shutterstock
Interesul pentru ChatGPT este în creștere. FOTO: Shutterstock

Denumite şi confabulaţii, halucinaţiile AI par câteodată absurde, dar pot părea pe deplin plauzibile, chiar şi atunci când sunt inexacte factual sau de-a dreptul ilogice, scrie Agerpres, citând sursele amintite.

„Aalucinează înseamnă că produce informaţie falsă''.  

Cuvântul „a halucina'' se referă, potrivit definiţiei  tradiţionale a la a vedea, auzi, simţi sau mirosi ceva care nu există, de obicei din cauza unei condiţii de sănătate sau în urma administrării unui drog.

Potrivit noii definiţii adiţionale din Dicţionarul Cambridge, „când o formă de inteligenţă artificială (un sistem informatic care are o parte din calităţile creierului uman, cum ar fi abilitatea de a produce limbaj într-un fel care pare uman) halucinează înseamnă că produce informaţie falsă''.

După o creştere iniţială a interesului în ceea ce priveşte instrumente pentru inteligenţa artificială generativă (AI) cum ar fi ChatGPT, atenţia publicului a migrat către limitările AI şi a modalităţilor prin care acestea pot fi depăşite.

„Fapte'' false, eronate sau inventate

Instrumente AI, în special cele care folosesc modele lingvistice mari (LLM), s-au dovedit capabile de a genera discurs plauzibil, dar deseori face acest lucru folosind „fapte'' false, eronate sau inventate.

Altfel spus, ele „halucinează'' într-o manieră încrezătoare şi câteodată credibilă.

„Faptul că AI-ul poate <<halucina>> ne aminteşte că oamenii au în continuare nevoie să-şi aducă abilităţile de gândire critică în folosul acelor instrumente. AI sunt fantastice în ceea ce priveşte căutarea printr-o cantitate mare de date pentru a extrage informaţii specifice şi a le consolida. Şi cu cât le ceri să fie mai originale, cu atât există probabilitatea mai mare de a o lua razna'', a spus Wendalyn Nichols, manager editorial al Dicţionarului Cambridge.  

Potrivit acesteia „în cel mai bun caz, modelele lingvistice mari pot fi doar la fel de fiabile ca şi datele folosite pentru învăţare (...) Expertiza umană este fără îndoială mai importantă - şi mai căutată - ca oricând, pentru a crea informaţii oficiale şi la zi pe baza cărora poate fi învăţat LLM-ul''.

Cazuri fictive în sala de judecată

Deja halucinaţiile AI au avut impact în lumea reală.

După ce a folosit ChatGPT pentru documentare juridică, o firmă de avocatură din Statele Unite a ajuns să menţioneze mai multe cazuri fictive în sala de judecată.

Iar într-un clip video promoţional Google pentru propriul chatbord, Bard, instrumentul AI a comis o eroare factuală referitoare la Telescopul Spaţial James Webb.

„O perspectivă fascinantă a felului în care gândim despre AI”

Noua definiţie ilustrează o tendinţa în creştere în ceea ce priveşte antropomorfizarea tehnologiei AI, folosirea unor metafore umane atunci când vorbim, scriem sau gândim despre maşini.

„Folosirea răspândită a termenului <<halucina>> în legătură cu greşeli produse de sisteme precum ChatGPT oferă o perspectivă fascinantă a felului în care gândim despre inteligenţa artificială şi a felului în care o antropomorfizăm. Informaţii inexacte şi amăgitoare au existat dintotdeauna, fie că a fost vorba despre zvonuri, propagandă saufake news'', a spus Henry Shevlin, specialist în etică AI la Universitatea Cambridge.

„Deconectare de la realitate”

Specialista în etică spune că, în timp ce acestea sunt considerate în mod normal produsul minţii umane, „a halucina” este un verb sugestiv, care se referă la „un subiect ce experimentează o deconectare de la realitate”.

„Alegerea lingvistică reflectă o mişcare subtilă, dar profundă în ceea ce priveşte percepţia: AI-ul, nu utilizatorul, este cel care <<halucinează>>. Deşi acest lucru nu sugerează credinţa extinsă în înţelepciunea AI, subliniază disponibilitatea noastră de a atribui atribute similare celor umane inteligenţei artificiale.Pe măsură ce acest deceniu trece, mă aştept ca vocabularul nostru psihologic să se extindă suplimentar pentru a cuprinde abilităţi stranii ale noilor inteligenţe pe care le creăm'', explică Henry Shevlin.

În lume



Partenerii noștri

Ultimele știri
Cele mai citite