Experiment eşuat rapid pentru Microsoft: un cont de Twitter făcut să genereze postări pe cont propriu a publicat mesaje pro-Hitler şi Trump

Experiment eşuat rapid
pentru Microsoft: un cont de Twitter făcut să genereze postări pe
cont propriu a publicat mesaje pro-Hitler şi Trump

Tay Tweets, susţinând că Holocaustul este o minciună ca răspuns la întrebarea unui utilizator

Inginerii Microsoft au fost nevoiţi să suspende destul de rapid un experiment privind inteligenţa artificială: un program făcut să gestioneze automat postările pe Twitter în funcţie de mesajele primite de la alţi utilizatori a început să posteze public mesaje antisemite şi rasiste, ducând la întreruperea temporară a experimentului, relatează „The Independent”.

Tay Tweets, aşa cum a fost gestionat contul numit de program, ar fi trebuit să arate potenţialul inteligenţei artificiale de a se adapta şi chiar purta discuţii pe cont propriu cu utilizatori reali, însă „motorul” programului a fost însăşi sabotat de o parte dintre utilizatorii reţelei de socializare.

„Bush a fost responsabil pentru 9/11 (n.r. - atentatele de la 11 septembrie 2001) şi Hitler ar fi făcut o treabă mai bună decât maimuţa pe care o avem acum” a fost o postare a contului, referindu-se la actualul preşedinte de culoare al Statelor Unite, Barack Obama, vizibilă pentru milioane de utilizatori. 

Iar acesta nu a fost un incident separat; după un început timid, cu replici simple, programul a început să posteze sistematic mesaje pro-Hitler, să nege Holocaustul şi să susţină că doar Donald Trump poate salva Statele Unite.

Cum s-a ajuns la acest eşec? Compania a publicat un comunicat prin care explică modul în care acesta generează postările:

„Programul de chat Tay este un proiect care învaţă mecanic, specific axat pe interacţiunea cu oamenii. Cu cât interacţionează mai mult, cu atât învaţă mai multe, însă de data aceasta unele dintre răspunsuri au fost necorespunzătoare – indicând tipul interacţiunilor pe care le-a avut”.

Practic, asta înseamnă că o parte dintre utilizatorii care au interacţionat cu Tay Tweets au folosit în mod repetat şi voit mesaje antisemite, rasiste sau xenofobe pentru a-l face să genereze postările jignitoare.

La mai puţin de 16 ore de la prima postare, compania s-a văzut nevoită să suspende postările lui Tay, pentru a lucra la un filtru care să-l oprească din a posta mesaje jignitoare de orice fel. Compania a şters toate mesajele rasiste postate de program, însă acestea au fost vizibile timp de câteva ore, în ceea ce s-a dovedit a fi un incident jenant pentru Microsoft.

Dacă apreciezi acest articol, te așteptăm să intri în comunitatea de cititori de pe pagina noastră de Facebook, printr-un Like mai jos:


citeste totul despre: