Fostul CEO Google avertizează asupra riscurilor inteligenței artificiale: „Un exemplu ar fi să învețe cum să ucidă pe cineva”
0Fostul director general al Google, Eric Schmidt, a lansat un avertisment dur privind pericolele inteligenței artificiale și susceptibilitatea acesteia la atacuri cibernetice.

Schmidt, care a condus Google între 2001 și 2011, a atras atenția asupra „lucrurilor rele pe care le poate face AI”, atunci când a fost întrebat dacă inteligența artificială poate fi mai distructivă decât armele nucleare, într-o discuție informală la conferința „Sifted Summit”, potrivit CNBC.
Eric Schmidt a spus că există „dovezi că modelele, fie ele deschise sau închise, pot fi hackuite pentru a-şi pierde limitele de siguranţă”, iar în procesul de antrenare „pot învăţa inclusiv cum să ucidă pe cineva”.
„Există dovezi că poți lua modele, fie închise, fie deschise, și să le hack-ui pentru a elimina protecțiile. În timpul antrenamentului lor, ele învață o mulțime de lucruri. Un exemplu negativ ar fi să învețe cum să ucidă pe cineva”, a spus Schmidt.
„Toate marile companii fac imposibil ca aceste modele să răspundă la astfel de întrebări. Decizie bună. Toată lumea procedează astfel, și bine fac. Există dovezi că ele pot fi reverse-engineered și multe alte exemple similare”, a adăugat acesta.
Pericolele AI și vulnerabilitatea la atacuri
Sistemele AI sunt vulnerabile la atacuri, unele metode fiind injectarea de prompturi și jailbreak-ul. Într-un atac de tip prompt injection, hackerii ascund instrucțiuni malițioase în input-urile utilizatorilor sau în date externe, precum pagini web sau documente, pentru a păcăli AI-ul să facă lucruri pe care nu ar trebui – cum ar fi să dezvăluie date private sau să execute comenzi dăunătoare.
Jailbreaking-ul, pe de altă parte, presupune manipularea răspunsurilor AI-ului pentru a ignora regulile de siguranță și a genera conținut restricționat sau periculos.
În 2023, la câteva luni după lansarea ChatGPT de către OpenAI, utilizatorii au folosit un truc de „jailbreak” pentru a ocoli instrucțiunile de siguranță încorporate în chatbot.
Aceasta includea crearea unui alter-ego al ChatGPT numit DAN („Do Anything Now”), care presupunea amenințarea chatbot-ului cu moartea dacă nu se supunea.
Alter-ego-ul putea oferi informații despre cum să comiți activități ilegale sau să enumere calități pozitive ale lui Adolf Hitler.
În ciuda avertismentului sumbru, Schmidt a arătat optimism față de AI în general și a spus că tehnologia nu primește atenția pe care o merită.
„Seria GPT, care a culminat cu momentul ChatGPT pentru noi toți, cu 100 de milioane de utilizatori în două luni, ceea ce este extraordinar, ne arată puterea acestei tehnologii. Cred că este subestimată, nu supraestimată, și aștept să fiu confirmat peste cinci sau zece ani”, a spus Schmidt.