După „Fake news“, „Deepfake“, videoclipurile trucate pot schimba cursul lumii

0
Publicat:
Ultima actualizare:

Tehnica trucării imaginilor s-a perfecţionat atât de mult, încât riscă să facă imposibilă distincţia dintre adevăr şi fals, iar consecinţele pot fi politice şi geopolitice.

O glumă banală făcută de un internaut inconştient într-un moment de plictiseală poate schimba cursul lumii. Cândva de neconceput, acest lucru este posibil acum prin prisma progresului înregistrat în tehnica trucării imaginilor şi răspândirii ei la scară largă prin aplicaţiile „deepfake“.

Principiul este simplu: o aplicaţie de acest tip permite înlocuirea chipului şi vocii unei persoane cu ale alteia. Aşa preşedintele Chinei poate fi confundat uşor cu cel al Statelor Unite sau o persoană poate ajunge în situaţii stânjenitoare. O actriţă de la Hollywood a trăit o astfel de experienţă în 2017, când chipul ei a fost asociat unor scene de natură sexuală. 

În India, o jurnalistă şi un parlamentar au ajuns la rândul lor vedete în scene asemănătoare inventate de la cap la coadă. La sfârşitul lui august, Wall Street Journal a făcut cunoscut cazul unui escroc deghizat în director de companie cu ajutorul inteligenţei artificiale. Imitând vocea respectivului director, acesta a încercat să se pricopsească cu peste 220.000 de euro. Nici Mark Zuckerberg, fondatorul Facebook, cea mai mare reţea de socializare din lume, nu a scăpat de farsa „deepfake“, trezindu-se într-un filmuleţ atribuindu-se o frază deloc onorantă: „Cine controlează datele, controlează viitorul“.

În condiţiile avansului tehnologic şi creşterii accesibilităţii la aplicaţiile „deepfake“, cercetătorii în domeniul manipulării şi responsabilii de securitate afirmă că nu mai e de glumit în cazul lor. Imaginile devin tot mai convingătoare şi depistarea adevărului de fals constituie o provocare tot mai mare. Iar noua aplicaţie disponibilă online, ZAO, a ridicat ştacheta. Lansată la începutul lui septembrie, ZAO permite unui utilizator să înlocuiască un actor într-o secvenţă de film. Simplă şi amuzantă, aplicaţia chineză s-a transformat într-o maşinărie de colectare de date şi într-un instrument care asigură cea mai mare accesibilitate la „deepfake“.

Dar, dincolo de amuzament, imagini şi filmuleţe trucate înfăţişând diverse personalităţi politice ar putea fi utilizate pentru a perturba campaniile electorale. „Mă întreb ce se va întâmpla la următoarele mari alegeri“, spune Vincent Nozick, lector la Institutul „Gaspard Monge“, într-un interviu acordat AFP pe tema pericolului reprezentat de avansarea tehnologiei de trucare a imaginilor.

Imagine indisponibilă

Armă informaţională

În opinia lui Yannick Harrel, expert în securitate cibernetică, „deepfake“-ul este deja o armă de manipulare. „Deepfake-ul este o armă informaţională care poate servi pentru diferite modele de guvernare, având atât destinaţie internă, cât şi externă“, afirmă el pentru portalul Sputnik, un instrument de propagandă al Kremlinului. Potrivit lui Harrel, „deepfake“-ul poate genera confuzie, alterare sau agravarea unei situaţii. 

Pentru a le detecta, instituţii universitare din Statele Unite au dezvoltat un sistem capabil să identifice filmuleţele false în proporţie de 90%.

Google caută soluţii 

Şi Google s-a implicat pe acest teren, publicând recent 3.000 de videoclipuri cu trucaje hiperrealiste ce prezintă oameni care par că fac sau că spun anumite lucruri pe care nu le-au făcut şi nu le-au spus niciodată în realitate. Acest calup de filmuleţe poate fi de-acum explorat de cercetători pentru „a dezvolta metode de detectare a videoclipurilor manipulate“, precizează gigantul IT.

Criticată pentru că permite dezinformare, Facebook a anunţat la rândul său lansarea iniţiativei Deepfake Detection Challenge. Scopul, potrivit reţelei, este de a încuraja industria digitală să creeze noi mijloace de detectare a filmuleţelor trucate.Nici actorii guvernamentali nu stau cu mâinile în sân, căutând soluţii pentru evitarea situaţiilor tulburi din cauza unui „deepfake“.

„Deocamdată, diferenţa dintre un filmuleţ original şi un filmuleţ trucat poate fi făcută încă, în general, cu ochiul liber“, remarcă Hao Li, profesor de tehnologii creative la Universitatea Southern California (USC), într-un interviu acordat postului american CNBC. „Însă există şi montaje care sunt deja foarte, foarte convingătoare“, precizează el.

„Suntem capabili astăzi să realizăm filmuleţe care par să fie perfect reale. Adevărata întrebare este cât timp va mai trece până când aceste tehnologii de producere a unor «deepfake»-uri hiperrealiste să devină accesibile pentru marele public. Cred că nu va fi nevoie de mai mult de 6 luni“, a estimat profesorul Hao Li.

„Deşi numeroase clipuri deepfake sunt concepute în scopuri umoristice, altele ar putea fi dăunătoare pentru indivizi şi societate”, au subliniat Nick Dufour de la Google şi Andrew Gully de la Jigsaw, divizia de cercetare din cadrul Alphabet, compania-mamă ce deţine Google.

În lume



Partenerii noștri

Ultimele știri
Cele mai citite