Opriți roboții ucigași! Cine sunt băieții tech susținuți de Musk pentru a salva omenirea de la distrugere

0
Publicat:

Lobbyiștii susținuți de CEO-ul Tesla și SpaceX Elon Musk și asociați cu o ideologie controversată, cunoscută în rândul miliardarilor din domeniul tehnologiei, se luptă pentru a-i opri pe roboții ucigași să distrugă omenirea. Aceștia se folosesc de Legea cu privire la Inteligența Artificială (AI) a Uniunii Europene, relatează Politico.

Robot ucigaș.
Morgan Freeman și Alan Alda se numără printre consilierii externi ai grupului. Foto: Arhivă

În ultimul an, Institutul Viitorul Vieții (Future of Life Institute, FLI) a devenit un grup important cu privire la unele dintre cele mai discutate părți ale Legii AI. În pofida legăturilor pe care grupul le are cu Silicon Valley, giganții tehnologiei, precum Google și Microsoft, s-au aflat de partea pierzătorilor în conversațiile propuse de membrii FLI. 

În Uniunea Europeană, sosirea unui grup ale cărui acțiuni sunt influențate mai degrabă de teama față de o catastrofă provocată de inteligența artificială scăpată de sub control, nu de preocupările legate de protecția consumatorului, a fost văzută precum o navă spațială care decolează din centrul Bruxelles-ului. 

Îngrijorările

Unii sunt îngrijorați că institutul este doar un grup de „băieți tech” care își fac griji cu privire la amenințările care au o posibilitate foarte mică să se întâmple și care s-ar putea să abată atenția de la alte probleme.

Însă, cei mai mulți sunt de părere că atât timp cât a activat la Bruxelles, FLI a fost folositor. 

Sunt destul de pragmatici și au expertiză legală și tehnică”, a declarat Kai Zenner, consilier pentru politica digitală al europarlamentarului de centru-dreapta Axel Voss, care lucrează la Legea AI. „Uneori sunt prea îngrijorați de tehnologie, dar ridică multe probleme bune”. 

Lansat în anul 2014 de academicianul Max Tegmark de la MIT și sprijinit de celebrități din domeniul tehnologiei precum Elon Musk, Jaan Tallinn, miliardarul estonian cunoscut pentru participarea sa la dezvoltarea Skype și „copilul minune” al criptomonedelor, Vitalik Buterin, grupul FLI este o organizație nonprofit care și-a îndreptat atenția asupra gestionării „pericolelor existențiale”. 

Morgan Freeman, Alan Alda, renumiții cercetători Martin (Lord) Rees și Nick Bostrom, se numără printre consilierii externi ai grupului. 

Grupul se teme de probabilitatea ca inteligența artificială să scape de sub controlul persoanelor. 

Am mai văzut accidente aviatice provocate de un pilot automat care nu a putut fi controlat. Am văzut asaltul asupra Capitoliului Statelor Unite din cauza unui algoritm care a fost instruit să maximizeze implicarea [utilizatorilor]. Acestea sunt erori de securitate în ziua de azi – pe măsură ce aceste sisteme devin mai puternice, pericolele ar putea să devină mai rele”, a declarat Mark Brakel, director de politică europeană al FLI. 

Venirea unui grup de lobby care luptă împotriva dispariției, inteligenței artificiale scăpate de sub control și roboților ucigași  putea fi înțeleasă ca o gură de aer proaspăt pentru politicile de regulă plictisitoare de la Bruxelles. 

Biroul FLI din Bruxelles a fost deschis la mijlocul lui 2021, în momentul în care începeau discuțiile cu privire la propunerea Comisiei Europene pentru Legea AI. 

„Ne-am dori ca AI-ul să fie dezvoltat în Europa, acolo unde există reglementări în vigoare”, a spus Brakel. „Sperăm ca oamenii să se inspire de la UE”. 

Problemele ridicate

De când și-a început activitatea la Bruxelles, echipa alcătuită din trei persoane a institutului (care s-a bucurat de ajutorul lui Tegmark și a unor companii, inclusiv al firmei de avocatură Dentons) a condus cu îndemânare eforturile de lobby în probleme de inteligență artificială puțin cunoscute. 

Una dintre problemele ridicate este inteligența artificială de uz general: programele precum cele de recunoaștere vocală sau cu instrumente de generare de imagini utilizate în multe contexte și alte erori periculoase. 

Sistemele AI de uz general sunt construite în principal în SUA și China, iar asta ar putea afecta inovația în Europa”, a declarat Brakel. 

Mai mult decât atât, FLI are de gând să interzică inteligența artificială care poate manipula comportamentul oamenilor. Propunerea de la început interzice AI-ul manipulator, însă este restrânsă la tehnici „subliminale”, despre care Brakel consideră că vor realiza portițe de scăpare. 

Europarlamentarul român care își dorește să extindă interdicția originală

Europarlamentarul român de la Renew Dragoș Tudorache, unul dintre raportorii legii privind inteligența artificială, face în prezent eforturi pentru a extinde interdicția originală. 

Dacă acel amendament va fi aprobat, am fi mult mai fericiți decât suntem cu textul actual”, a declarat Brakel. 

Omul de știință din domeniul inteligenței artificiale, Timnit Gebru, a criticat FLI într-o postare publicată pe Twitter, afirmând că are „îngrijorări uriașe” despre grupul de lobby. „Sunt susținuți de miliardari printre care se numără și Elon Musk – asta deja ar trebui să îi facă pe oameni suspicioși”, a declarat Gebru în cadrul unui interviu.  

Întreg domeniul legat de siguranța AI este compus din atât de multe „institute” și companii în care miliardarii toarnă bani. Dar conceptul lor legat de siguranța AI nu are nimic de-a face cu relele suferite acum de grupurile marginalizate – ei vor să reorienteze întreaga conversație înspre prevenirea acestei apocalipse AI”. 

Totodată, o altă îngrijorare legată de FLI la Bruxelles este ca încercările grupului de a curma o revoluție a roboților ucigași să nu fie doar un plan prin care membrii grupului își ascund interesul tehno-utopic de dezvoltare a unui AI cu capacități asemănătoare omului. 

 Consilierii FLI Elon Musk, Tegmark și Tallinn au vorbit, în cadrul unei conferințe din anul 2017, despre ideea unui AI mult mai inteligent decât oamenii. Majoritatea participanților la discuții au afirmat că „superinteligența” va fi creată în viitor. 

După părerea lui Brakel, ceea ce realizează FLI este similar cu activismul de mediu din perioada timpurie a mișcării. 

Avem acum cel mai cald octombrie din toate timpurile. Ne facem griji despre asta azi, dar ne facem griji și despre impactul pe care îl va avea peste 80 de ani. Există sincope de siguranță ale AI-ului astăzi – iar pe măsură ce aceste sisteme devin mai puternice, pericolele ar putea și ele să devină mai grave”, a declarat Brakel. 

Tehnologie



Partenerii noștri

Ultimele știri
Cele mai citite