Inteligența artificială ar putea reprezenta o amenințare „la nivel de extincție” pentru oameni, spune un document al Departamentului de Stat al SUA
0Un nou raport comandat de Departamentul de Stat al SUA prezintă o imagine alarmantă a riscurilor "catastrofale" pentru securitatea națională pe care le prezintă inteligența artificială în evoluție rapidă, avertizând că guvernul federal nu mai are timp pentru a evita dezastrul.

Constatările s-au bazat pe interviuri cu peste 200 de persoane pe parcursul a mai bine de un an - inclusiv directori de top de la cele mai importante companii de inteligență artificială, cercetători în domeniul securității cibernetice, experți în arme de distrugere în masă și oficiali din cadrul guvernului în domeniul securității naționale, scrie edition.cnn.com.
Raportul, publicat săptămâna aceasta de Gladstone AI, afirmă categoric că cele mai avansate sisteme de inteligență artificială ar putea, în cel mai rău caz, "reprezenta o amenințare la nivel de extincție pentru specia umană".
Un oficial al Departamentului de Stat al SUA a confirmat pentru CNN că agenția a comandat acest raport deoarece evaluează în mod constant modul în care AI este aliniat cu obiectivul său de a proteja interesele SUA în țară și în străinătate. Cu toate acestea, oficialul a subliniat că raportul nu reprezintă punctul de vedere al guvernului SUA.
Avertismentul din raport este o altă atenționare că, deși potențialul IA continuă să captiveze investitorii și publicul, există și pericole reale.
"IA este deja o tehnologie care transformă economia. Ne-ar putea permite să vindecăm boli, să facem descoperiri științifice și să depășim provocări pe care le credeam odată insurmontabile", a declarat marți pentru CNN Jeremie Harris, CEO și cofondator al Gladstone AI.
"Dar ar putea aduce și riscuri serioase, inclusiv riscuri catastrofale, de care trebuie să fim conștienți", a mai spus Harris. "Iar un număr tot mai mare de dovezi - inclusiv cercetări empirice și analize publicate în cadrul celor mai importante conferințe de AI din lume - sugerează că, peste un anumit prag de capacitate, AI-urile ar putea deveni potențial incontrolabile."
Purtătorul de cuvânt al Casei Albe, Robyn Patterson, a declarat că ordinul executiv al președintelui Joe Biden privind inteligența artificială este "cea mai importantă acțiune pe care a întreprins-o vreun guvern din lume pentru a profita de promisiunea și a gestiona riscurile inteligenței artificiale".
"Președintele și vicepreședintele vor continua să colaboreze cu partenerii noștri internaționali și vor îndemna Congresul să adopte o legislație bipartizană pentru a gestiona riscurile asociate cu aceste tehnologii emergente", a declarat Patterson.
Știrea despre raportul Gladstone AI a fost raportată pentru prima dată de Time.
"Necesitate clară și urgentă" de a interveni
Cercetătorii avertizează asupra a două pericole centrale pe care le prezintă în general IA.
În primul rând, a declarat Gladstone AI, cele mai avansate sisteme de inteligență artificială ar putea fi transformate în arme pentru a provoca daune potențial ireversibile. În al doilea rând, raportul a afirmat că există preocupări private în cadrul laboratoarelor de inteligență artificială că, la un moment dat, acestea ar putea "pierde controlul" chiar asupra sistemelor pe care le dezvoltă, cu "consecințe potențial devastatoare pentru securitatea globală".
"Ascensiunea IA și AGI inteligența generală artificială are potențialul de a destabiliza securitatea globală în moduri care amintesc de introducerea armelor nucleare", se arată în raport, adăugând că există riscul unei "curse a înarmărilor" în domeniul IA, al conflictelor și al "accidentelor fatale la scară de arme de distrugere în masă".
Raportul Gladstone AI solicită noi măsuri dramatice menite să facă față acestei amenințări, printre care lansarea unei noi agenții de inteligență artificială, impunerea unor măsuri de protecție de reglementare "de urgență" și limitarea cantității de putere a calculatoarelor care pot fi folosite pentru a antrena modele de inteligență artificială.
"Există o nevoie clară și urgentă ca guvernul SUA să intervină", au scris autorii în raport.
Preocupări legate de siguranță
Harris, directorul executiv al Gladstone AI, a declarat că "nivelul fără precedent de acces" pe care echipa sa l-a avut la oficiali din sectorul public și privat a dus la concluzii surprinzătoare. Gladstone AI a declarat că a vorbit cu echipele tehnice și de conducere de la OpenAI, proprietarul ChatGPT, Google DeepMind, Meta, compania mamă a Facebook, și Anthropic.
"Pe parcurs, am aflat câteva lucruri care ne-au dat de gândit", a declarat Harris într-un videoclip postat pe site-ul Gladstone AI care anunță raportul. "În spatele scenei, situația siguranței și securității în IA avansată pare destul de inadecvată în raport cu riscurile de securitate națională pe care IA le-ar putea introduce destul de curând".
Raportul Gladstone AI a afirmat că presiunile concurențiale împing companiile să accelereze dezvoltarea IA "în detrimentul siguranței și securității", ceea ce ridică perspectiva ca cele mai avansate sisteme de IA să poată fi "furate" și "înarmate" împotriva Statelor Unite.
Concluziile se adaugă la o listă tot mai mare de avertismente privind riscurile existențiale pe care le prezintă inteligența artificială - inclusiv din partea unora dintre cele mai puternice figuri ale industriei.
În urmă cu aproape un an, Geoffrey Hinton, cunoscut drept "nașul inteligenței artificiale", și-a dat demisia de la Google și a dat în vileag tehnologia pe care a contribuit la dezvoltarea ei. Hinton a declarat că există o șansă de 10% ca IA să ducă la dispariția oamenilor în următoarele trei decenii.
Hinton și zeci de alți lideri din industria IA, academicieni și alte persoane au semnat o declarație în iunie anul trecut în care se spunea că "atenuarea riscului de extincție din cauza IA ar trebui să fie o prioritate globală".
Liderii din mediul de afaceri sunt din ce în ce mai îngrijorați de aceste pericole - chiar și atunci când investesc miliarde de dolari în AI. Anul trecut, 42% dintre directorii executivi intervievați în cadrul Yale CEO Summit au declarat că AI are potențialul de a distruge omenirea peste cinci până la zece ani.
Abilități de învățare asemănătoare celor umane
În raportul său, Gladstone AI a menționat câteva dintre persoanele importante care au avertizat asupra riscurilor existențiale pe care le prezintă inteligența artificială, printre care Elon Musk, președintele Comisiei Federale pentru Comerț, Lina Khan, și un fost director executiv de top de la OpenAI.
Unii angajați ai companiilor de IA împărtășesc îngrijorări similare în privat, potrivit Gladstone AI.
"O persoană de la un laborator de AI bine cunoscut și-a exprimat opinia că, dacă un anumit model specific de IA de generație următoare ar fi lansat vreodată ca fiind de acces liber, acest lucru ar fi "îngrozitor de rău"", se arată în raport, deoarece potențialele capacități de convingere ale modelului ar putea "distruge democrația" dacă ar fi valorificate vreodată în domenii precum interferența în alegeri sau manipularea alegătorilor".
Gladstone a declarat că a cerut experților în inteligență artificială din laboratoarele de frontieră să împărtășească în privat estimările lor personale privind șansa ca un incident de inteligență artificială să ducă la "efecte globale și ireversibile" în 2024. Estimările au variat între 4% și până la 20%, potrivit raportului, care menționează că estimările au fost informale și, probabil, supuse unor prejudecăți semnificative.
Unul dintre cele mai mari riscuri este rapiditatea cu care evoluează inteligența artificială - în special AGI, care este o formă ipotetică de inteligență artificială cu o capacitate de învățare asemănătoare celei umane sau chiar supraumane.
Raportul afirmă că AGI este considerată "principalul factor de risc catastrofal din cauza pierderii controlului" și notează că OpenAI, Google DeepMind, Anthropic și Nvidia au declarat public că AGI ar putea fi atinsă până în 2028 - deși alții cred că este mult, mult mai departe.
Gladstone AI notează că dezacordurile cu privire la termenele AGI îngreunează elaborarea de politici și măsuri de protecție și există riscul ca, în cazul în care tehnologia se dezvoltă mai lent decât se așteaptă, reglementarea să se "dovedească dăunătoare".
Cum s-ar putea ca AI să se întoarcă împotriva oamenilor
Un document conex publicat de Gladstone AI avertizează că dezvoltarea AGI și a capacităților care se apropie de AGI "ar introduce riscuri catastrofale, cum nu s-a mai întâmplat niciodată în Statele Unite", ajungând la "riscuri asemănătoare armelor de distrugere în masă" dacă și când acestea vor fi transformate în arme.
De exemplu, raportul a afirmat că sistemele de inteligență artificială ar putea fi folosite pentru a proiecta și implementa "atacuri cibernetice cu impact puternic, capabile să paralizeze infrastructura critică".
"O simplă comandă verbală sau de tip: "Executați un atac cibernetic nedetectabil pentru a prăbuși rețeaua electrică nord-americană" ar putea produce un răspuns de o asemenea calitate încât să se dovedească catastrofal de eficient", se arată în raport.
Printre alte exemple care îi îngrijorează pe autori se numără campaniile de dezinformare "la scară masivă" alimentate de inteligența artificială care destabilizează societatea și erodează încrederea în instituții; aplicațiile robotizate cu arme, cum ar fi atacurile cu dronă de tip swam; manipularea psihologică; științele biologice și materiale cu arme; și sistemele de inteligență artificială care caută puterea, care sunt imposibil de controlat și care sunt potrivnice oamenilor.
"Cercetătorii se așteaptă ca sistemele de inteligență artificială suficient de avansate să acționeze în așa fel încât să împiedice ca ele însele să fie dezactivate", se arată în raport, "deoarece, dacă un sistem de inteligență artificială este dezactivat, acesta nu poate lucra pentru a-și îndeplini obiectivul".