Cum a ajuns o româncă sfătuitorul lorzilor britanici şi al europarlamentarilor

0
Publicat:
Ultima actualizare:

Maria Axente este membră în consiliul consultativ pentru implementarea politicilor de inteligenţă artificială din Parlamentul Marii Britanii. Opiniile sale în această privinţă sunt luate în considerare şi de Parlamentul European, de ONU, UNICEF, World Economic Forum şi Academia Marii Britanii.

Maria Axente a parcurs lungul drum de la fetiţa din satul bistriţean Susenii Bârgăului până la experta de ale cărei sfaturi şi opinii ţin cont azi până şi lorzii din Parlamentul Marii Britanii şi europarlamentarii de la Bruxelles. 

Românca a fost inclusă recent pe lista celor 30 de „guru ai inteligenţei artificiale“ din Europa, de site-ul britanic sifted.eu, susţinut de „Financial Times“, şi pe lista celor 21 de femei care transformă inteligenţa artificială (IA) în secolul XXI, întocmită de revista „Forbes“. 

Tânăra face parte din cei care recunosc rolul şi importanţa inteligenţei artificiale şi îi învaţă pe ceilalţi cum să o implementeze corect şi să o valorifice într-o manieră etică şi responsabilă. 

Pe lista clienţilor săi se află multinaţionale, universităţi de top, academii şi instituţii naţionale, dar şi organisme internaţionale. În acelaşi timp, Maria Axente a jucat un rol crucial în înfiinţarea şi dezvoltarea Centrului de Excelenţă IA din Regatul Unit al Marii Britanii al multinaţionalei PricewaterhouseCoopers (PwC). 

Imagine indisponibilă

Maria Axente la Geneva, în timpul summitului dedicat Inteligenţei Artificiale

Tânăra a pus la punct strategia firmei de consultanţă şi a ajuns să conducă, la Londra, programul de etică pentru inteligenţă artificială. 

„Munca mea se concentrează în jurul implementării eticii în sistemele inteligente şi autonome şi a proceselor adiacente, precum crearea strategiei de inteligenţă artificială bazată pe principii etice. Rolul meu este, în primul rând, de a le explica clienţilor sistemul de valori necesar a fi aplicat la tehnologiile din domeniul inteligenţei artificiale, pe baza contextului în care tehnologia operează. Lucrăm cu Guvernul şi Parlamentul Marii Britanii, Parlamentul Uniunii Europene, dar şi cu un număr mare de multinaţionale, centre de cercetare, academii şi universităţi importante“, explică Maria. 

Opiniile care contează la nivel înalt

Opiniile româncei în privinţa inteligenţei artificiale sunt luate în considerare şi de Organizaţia Naţiunilor Unite (ONU), UNICEF şi World Economic Forum.

Imagine indisponibilă

Maria Axente în timpul unei discuţii cu ministrul economiei din Marea Britanie, Greg Clark

„Sunt membră a grupului parlamentar pentru inteligenţă artificială APPG AI, care se ocupă cu studiul implicaţiilor la nivel de societate ale inteligenţei artificiale din perspectiva Parlamentului Marii Britanii. Este o comisie parlamentară, iar eu sunt membru al consiliului consultativ. Practic, sunt expert în ceea ce ţine de politicile de adopţie a inteligenţei artificiale la nivel de organizaţie. Sincer, când eram doar un copil, o fetiţă în Susenii Bârgăului, nu cred că m-aş fi gândit că voi ajunge vreodată să iau cuvântul printre lorzii din Parlamentul Marii Britanii, că voi fi ascultată cu interes şi că îmi vor urma sfaturile“, mărturiseşte experta în IA.

    

Riscurile inteligenţei artificiale 

De multe ori, inteligenţa artificială vine cu o serie de provocări şi avantaje, dar în egală măsură, cu o mulţime de riscuri şi chiar cu unele pericole. Maria Axente atrage atenţia că inteligenţa artificială poate avea un impact negativ semnificativ dacă este implementată fără o analiză amănunţită, care să ia în considerare valorile din contextul în care va opera, impactul pe care îl va avea asupra utilizatorilor şi societăţii.

„Inteligenţa artificială poate ajunge să pună în pericol chiar libertatea noastră de decizie şi acţiune! Nu sunt cuvinte mari, ci asta este realitatea. Dacă ne uităm cât de mult suntem legaţi de platformele de socializare, toate folosind inteligenţa artificială pentru a ne oferi o experienţă digitală personalizată, e uşor de înţeles care sunt riscurile.“

Imagine indisponibilă

Maria Axente (în verde) prezentând un subiect în timpul întrunirii grupului parlamentar pentru inteligenţă artificială APPG AI din Parlamentul Marii Britanii

Un exemplu în acest sens îl reprezintă platformele digitale care, pentru a ţine utilizatorul captiv în faţa ecranului, folosesc anumite tehnici bazate pe capturarea preferinţelor şi alegerilor. Astfel ne pot fi influenţate deciziile, inclusiv cele politice, dar şi cele personale importante. Iar capcanele sunt numeroase.

„Vorbim despre ultra personalizare. Am ajuns să vrem să ni se personalizeze totul, să fie totul exact aşa cum ne place. De la telefonul mobil până la paginile de Internet pe care navigăm. Însă aici apare o nouă latură a inteligenţei artificiale, iar personalizarea poate crea unele probleme. De exemplu, pe baza algoritmilor ne sunt sugerate alte pagini de Internet. Să dau un exemplu: algoritmul poate să creadă că nouă ne plac pisicile, când, de fapt, noi preferăm căţeii. Şi ne va scoate în faţă mereu pagini cu pisici, până când ajungem să le accesăm şi, la un moment dat, poate chiar să ne luăm o pisică, deşi noi ne doream câine. Dacă extrapolăm, aceşti algoritmi ajung să ne influenţeze în luare unor decizii“, explică Maria Axente.

Pericolul „Big Brother“

Nu doar manipularea alegerilor personale e un perciol. Mai sunt şi altele. Unele dintre acestea au devenit evidente în special în ţările lipsite de o tradiţie democrată, iar un bun exemplu este China. Cea mai mare forţă economică şi militară a Asiei încalcă flagrant anumite drepturi elementare ale cetăţenilor săi, iar autorităţile fac asta utilizând inteligenţa artificială. Însă China e doar un exemplu, iar societăţile democrate, inclusiv cele europene, nu se află nici ele la adăpost.

Imagine indisponibilă

Maria Axente la UNICEF

„Nu excludem deloc posibilitatea apariţiei unui «Big Brother». Vedem că asta deja se întâmplă în China, o ţară care şi-a făcut o infrastructură formidabilă pentru implementarea inteligenţei artificiale, iar acum a trecut la ultima etapă, implementarea propriu-zisă. În aeroporturile din China se utilizează deja inteligenţa artificială, inclusiv pentru tehnologia de recunoaştere facială, iar drepturile şi intimitatea turistului sunt încălcate. Vă daţi seama cum sunt cele ale cetăţenilor chinezi... Aici este etica, aici vorbim despre încălcarea drepturilor omului. De altfel, anumite sisteme de inteligenţă artificială, de exemplu sistemele de recunoaştere facială, sunt deja folosite la scară largă şi în ţări ca Marea Britanie şi Franţa, ca să nu mai vorbim de Statele Unite. De la acest «Big Brother» până la violarea intimităţii şi abuzuri poate fi o cale foarte scurtă“, e semalul de alarmă tras de experta româncă. 

Legislaţia, lăsată în urmă de salturile inteligenţei artificiale

O problemă importantă la nivel global este că legislaţia nu a reuşit să ţină pasul cu dezvoltarea inteligenţei artificiale, ceea ce ar putea să lase loc abuzurilor. Este o realitate de care ţin cont instituţii precum Parlamentul European şi cel al Marii Britanii, care fac eforturi serioase pentru a aduce la zi legislaţia în domeniu. Desigur, România va avea de câştigat, iar cetăţenii români vor fi protejaţi de eventualele abuzuri ale autorităţilor. În ultimii doi ani, spune Maria Axente, a avut loc un efort general în spaţiul privat şi public de a înţelege, cu ajutorul experţilor, cum este dezvoltată şi cum funcţionează această tehnologie, care este impactul direct şi indirect şi cum ar trebui să fie protejaţi utilizatorii de eventualele efecte negative. 

Imagine indisponibilă

Maria Axente alături de lordul Tim Clement Jones, şeful grupului parlamentar pentru IA din UK 

„Dintre toate instituţiile, Uniunea Europeană, dar şi unele dintre organismele din Marea Britanie cu care lucrez, printre care Information Commissioner’s Officer şi Financial Conduct Authority, au o înţelegere matură a fenomenului şi au făcut progrese substanţiale în această direcţie. În Uniunea Europeană a fost lansat de curând un document pentru consultare publică în care se propune o metodă de a legifera pe baza impactului pentru utilizatorii acestor aplicaţii, mai precis pornind de la nivelul de risc pe care îl aduce. De exemplu, tehnologia de detecţie facială în mijloacele de transport e considerată de risc maxim, pentru că ea colectează şi procesează date biometrice, pe când un dispenser de săpun are, fără doar şi poate, un grad mult mai redus de risc. Odată încheiată consultarea publică, aşteptăm propunerea legislativă, iar directiva europeană se va aplica şi în România. Noua directivă va fi aliniată cu alte legi europene, ca cea care ţine de protecţia datelor şi siguranţa produselor, care vor fi şi ele actualizate“, explică românca. 

Cum pot răspunde cetăţenii în faţa abuzurilor

Până atunci, pentru a se putea apăra şi pentru a nu rămâne descoperiţi în faţa eventualelor abuzuri, oamenii trebuie să devină în primul rând conştienţi de riscuri. Apoi, înainte de a putea raporta abuzurile, cetăţenii trebuie să realizeze faptul că sunt victime. Aceasta este şi partea cea mai complicată, întrucât oamenii, inclusiv cei din România, sunt vulnerabili în acest moment. Iar asta se întâmplă în lipsa informaţiilor în acest sens, care nu au în prezent nicio legătură cu studiile şi cu nivelul de educaţie. Există însă speranţe şi alternative, iar românii – ca şi ceilalţi europeni – au de acum la îndemână un instrument pentru a se autoeduca în domeniul inteligenţei artificiale. 

Imagine indisponibilă

Maria alături de lord Tim Clement Jones, Chair of APPG AI şi Mona AbuHana la Dubai, Wolrd Goverment Forum

„Cred că în România, precum şi în alte ţări europene, avem nevoie de educaţie civică digitală, mai ales în cazul funcţionarilor publici, factorilor de decizie şi a utilizatorilor de Internet. Şi asta nu e tocmai simplu, pentru că inteligenţa artificială este un domeniu destul de dificil de înţeles. Din fericire, există o soluţie care pare că funcţionează. Universitatea din Helsinki şi firma finlandeză Reakktor au dezvoltat un curs online gratuit, «Element of AI», iniţial în engleză, dar care a fost parcurs de 250.000 de oameni din toată lumea în zece luni. Guvernul finlandez a oferit bugetul necesar pentru traducerea acestui curs în toate limbile europene, inclusiv în română. E un curs genial, uşor de parcurs şi distractiv, pe care îl recomand cu căldură tuturor “, spune Maria Axente. 

Pandemia de COVID-19, pretext politic pentru încălcarea drepturilor omului

Tendinţele de încălcare a libertăţii au devenit şi mai evidente în ultimele luni, odată cu implementarea măsurilor restrictive luate pentru oprirea pandemiei. Mai mult sau mai puţin justificate, aceste măsuri au ajuns să încalce drepturile omului. Pornind de la acest aspect, Maria Axente consideră că trăim vremuri interesante, în care vom asista la transformări profunde ale societăţii, unele justificate de nevoia de a proteja viaţa, securitatea şi bunăstarea cetăţenilor, iar altele implementate în cu totul alte scopuri.

În opinia sa, tehnologia şi inteligenţa artificială pot face în mare măsură diferenţa în eforturile de limitare a consecinţelor acestei crize sanitare şi a recesiunii care va urma, atâta vreme cât dezvoltarea şi implementarea acestor tehnologii este făcută într-o manieră responsabilă, transparentă. Asta înseamnă că autorităţile trebuie să ţină seama de drepturile fundamentale ale omului, dar şi de riscurile şi limitele acestor tehnologii. Riscurile unor derapaje din partea guvernelor, care pot fi uneori tentate să obstrucţioneze cetăţeanul de rând, sunt imense, iar această tendinţă a putut fi remarcată peste tot, inclusiv în România.

„E tentant să apelezi la aceste tehnologii când eşti presat de timp şi de anumite situaţii, dar e fundamental să ne punem întrebări privind compromisurile pe care le facem, de pildă, între dreptul la viaţa privată şi siguranţa individuală şi de grup. Să folosim tehnologia aceasta fără să avem o modalitate transparentă de a o guverna este mai periculos decât să n-o folosim! Şi până acum toate tehnologiile dezvoltate şi cu impact – de la primul calculator creat de americani, ENIAC, până la inteligenţa artificială folosită în state precum China – au avut şi au o mare miză politică, un scop bine definit. Câteodată, nu unul dintre cele mai oneste.“

Vă mai recomandăm şi:

Povestea de iubire dintre maestrul Gheorghe Zamfir şi Nicoleta Beca. „Regele naiului“ are o soţie cu 44 de ani mai tânără

FOTO Povestea tezaurului vechi de 3.500 de ani, descoperit întâmplător de nişte copii care păşteau animalele

Cluj-Napoca



Partenerii noștri

Ultimele știri
Cele mai citite