De ce nu mi-e frică de AI

0
0
Publicat:
Ultima actualizare:
Sophia Foto slate.com

De ceva vreme, avem de-a face cu AI. Fie că vorbim de spectacularul robot Sophia, fie că ne referim la propriile smartphone-uri sau sofisticatele soft-recognition din spatele FB, inteligenţa artificială naşte satisfacţii, curiozităţi, temeri, dubii.

În esenţă,  inteligenţa artificială este doar o sumă de algoritmi informatici, care se deosebesc însă de softurile „clasice” prin capacitatea de a „învăţa”. Asta este toată marea filozofie. Adică reţine date, le corelează cu „experienţele” anterioare şi, pe baza unor statistici şi probabilităţi, softul este în stare să decidă singur ce alegere să facă, atenţie, între posibilităţile pe care deja le „ştie”, prin „învăţare”.

Probabil că acest fapt, ca un soft să decidă singur ce va face, a speriat pe mulţi. Sau, cel puţin, i-a pus pe gânduri. Eu cred că, obişnuiţi prea mult cu firea umană, s-au cam grăbit. Sau poate că au mers prea departe cu imaginaţia SF…

Dacă este să vină de undeva vreun pericol, el vine tot de la oameni. În fond, oamenii sunt cei care iniţiază „învăţarea” AI, stabilind care sunt CRITERIILE de învăţare. Algoritmii, oricare ar fi ei, structurează criterii, pe logica simplă binară: if (dacă)…then do that (atunci fă asta). Ceea ce deja i-a făcut pe mulţi să discute de ETICA inteligenţei artificiale. Ei bine, eu nu mă tem. „Etica” maşinii nu este decât rezultatul unor algoritmi, care, să nu uităm, sunt iniţiaţi de om. Trebuie doar să fim suficienţi de inteligenţi ca să facem maşina să înveţe ce vrem noi. Şi să-i oferim doar alegerile pe care le considerăm noi. Etica maşinii derivă din etica omului.

Bine,  vor zice alţii, dar există posibilitatea ca maşina să facă alegeri greşite TOCMAI pentru că ea, în fapt, nu gândeşte ca omul. Ei, da, aici discuţia devine interesantă. Spre deosebire de maşină, omul are posibilitatea angajării într-o alegere, prin liberul arbitru. Iar criteriile liberului arbitru sunt total diferite de criteriile algoritmilor ficşi. Dovadă stă faptul că, de multe ori, omul alege prost, autodistrugându-se. Statistic vorbind, mai degrabă alege omul greşit, decât maşina. Erorile umane sunt mai dese decât cele digitale. Maşina, când are „bug”-uri, în cel mai rău caz se blochează sau devine nefuncţională. Mă rog,  tot un fel de a fi „contra” omului ar fi J.

Totuşi, discuţia rămâne în picioare. Dacă maşina alege greşit? Ce se poate întâmpla? la această întrebare nu cred că putem răspunde precis. Nu ştim ce poate genera eroarea unei maşini pentru că, pur şi simplu, nu putem anticipa care sunt variantele „rele” pe care şi le poate construi, prin „învăţare”, astfel încât acestea să ajungă opţiunile ei de alegere.

Din fericire, feedback există şi la maşini, nu doar la oameni. Şi el se cheamă simplu: control. Cred că viitorul inteligenţei artificiale va depinde foarte mult de controlul pe care omul şi-l propune asupra maşinii. Dacă mergem pe ideea că o lăsăm „de capul ei” atunci, da, Stephen Hawking şi toţi ceilalţi sceptici vor avea dreptate: ar putea însemna sfârşitul rasei umane. dar nu pentru că şi-a propus maşina, ci pentru că a „învăţat” greşit de la rasa umană, capabilă de distrugere. Dacă însă mergem pe ideea că maşina trebuie controlată de om, spre a fi în slujba lui, atunci nu avem de ce ne teme. Trebuie doar să găsim algoritmii potriviţi.

Dar, până la urmă, şi alegerea drumului este tot alegerea omului. Căci n-am văzut ca maşina să fie contra maşinii, decât dacă este învăţată de om. În nici un caz inteligenţa artificială nu va putea deveni umană.

Alegerea presupune libertate,  pe care algoritmul nu o poate avea.

PS. Termenul „maşină” în acest text trebuie înţeles ca o unitate informatică ce rulează inteligenţă artificială.

Opinii


Ultimele știri
Cele mai citite