Delia, victima fenomenului „deepfake“. Chipul artistei apare în scene dintr-un film pentru adulţi: „O mizerie făcută cu o aplicaţie de doi lei“ VIDEO
0Cântăreaţa Delia (38 de ani) este cea mai recentă victimă a fenomenului „deepfake“ în România. Imaginea cântăreţei a fost folosită pentru a truca un film pentru adulţi.
Delia a povestit pe contul ei de Instagram cum a ajuns victima fenomentului „deepfake“, care a luat amploare în mediul online, în ultimii ani. Chipul artistei „a ajuns“ pe corpul unei actriţe de filme pentru adulţi.
„Deepfake“ este o metodă prin care se generează conţinut digital fals, precum poze şi filmuleţe, dar cât mai aproape de realitate.
„Am descoperit că circulă din telefon în telefon această mizerie. Se numeşte deepfake! Este un fake făcut în România ... din fericire. Cu o aplicaţie de doi lei. Afară lucrurile stau îngrijorător de bine la acest capitol de tehnologie avansată. Se foloseşte o poză bună şi functionează pe sistemul face swap! Imaginează-ţi cum te simţi să-ţi vezi faţa pusă într-un astfel de context. Sau mai rău, faţa mamei tale sau a copilului tău. Oricine poate fi o victimă a acestor aplicaţii în scop de umilire, şantaj etc. Căscaţi bine ochii şi nu mai credeţi tot ce zboară pe net! Stăm prost la capitolul legi în online, dar cu siguranţă se vor lua măsuri!“, a scris Delia.
View this post on Instagram Am descoperit ca circula din telefon in telefon...aceasta mizerie.Se numeste deepfake!Este un fake facut in Romania ..din fericire.Cu o aplicatie de doi lei.Afara lucrurile stau ingrijorator de bine la acest capitol de tehnologie avansata. Se foloseste o poza..buna si functioneaza pe sistemul face swap! Imagineaza ti cum te simti sa ti vezi fata pusa intr un astfel de context.Sau mai rau...fata mamei tale..sau a copilului tau. Oricine poate f o victima a acestor aplicatii..in scop de umilire...santaj...etc! Cascati bine ochii si nu mai credeti tot ce zboara pe net! Stam prost la capitolul legi in online...dar cu siguranta se vor lua masuri! 😡 A post shared by Delia (@delia) on Apr 21, 2020 at 5:05am PDT
Delia a atras atenţia că se poate observa cu uşurinţă cum imaginea ei din filmuleţul pentru adulţi este una falsă: „Din fericire, trăiesc în România şi probabil că aici tehnologia nu a evoluat atât de mult, pentru că filmuleţul în cauză are nişte defecte monstruoase, adică aplicaţia aceea efectiv sare de pe faţă când actriţa se mişcă mai brusc şi se vede că e fals. Bine, văd oamenii cu un pic de inteligenţă peste. Majoritatea probabil că nu înţeleg despre ce este vorba, văd o imagine şi nu se uită atent la detalii şi la faptul că faţa e nenaturală, mişcatul ochilor este nenatural şi este desprins parcă dintr-un film de groază“.
„Am descoperit şi după cu ce poză au făcut toată treaba asta, pentru că am recunoscut machiajul şi lumina şi mi-am dat seama cine a făcut acel machiaj. Nu e amuzant deloc, pentru că asta se poate duce foarte departe. Ţi se poate întâmpla ţie, i se poate întâmpla mamei tale, copilului tău, ceea ce ar fi absolut groaznic şi poţi fi manipulat în aşa fel încât să pară că ai spus ceva politic, ceva ce bineînţeles e fals, pentru că se lucrează şi la chestia asta cu vocea acum. Filmuleţul în cauză nu are sunet. V-am spus, e făcut aici“, a mai spus Delia.
Adevărata protagonistă a videoclipului este actriţa de filme pentru adulţi, Nicole Aniston.
View this post on Instagram Si am inchis subiectul! Am gasit originalul @realnicoleaniston 💪🏼 A post shared by Delia (@delia) on Apr 21, 2020 at 11:49am PDT
Ce este „deepfake“ şi cum a luat naştere fenomentul
Termenul „deepfake“ este derivat din combinaţia termenilor „deep learning“, o caracteristică a inteligenţei artificiale, şi fake – adică fals. Temenul se referă la o tehnică de sintetizare a imaginilor şi sunetelor pentru a crea conţinut.
Tehnica trucării imaginilor s-a perfecţionat atât de mult, încât riscă să facă imposibilă distincţia dintre adevăr şi fals, iar consecinţele pot fi politice şi geopolitice.
O glumă banală făcută de un internaut inconştient într-un moment de plictiseală poate schimba cursul lumii. Cândva de neconceput, acest lucru este posibil acum prin prisma progresului înregistrat în tehnica trucării imaginilor şi răspândirii ei la scară largă prin aplicaţiile „deepfake“.
Principiul este simplu: o aplicaţie de acest tip permite înlocuirea chipului şi vocii unei persoane cu ale alteia. Aşa preşedintele Chinei poate fi confundat uşor cu cel al Statelor Unite sau o persoană poate ajunge în situaţii stânjenitoare. Mai multe actriţe de la Hollywood au trăit o astfel de experienţă în anii trecuţi, când chipul lor a fost asociat unor scene de natură sexuală. Este cazul actriţelor Emma Watson şi Scarlett Johansson.
Celebrităţile, victimele fenomenului „deepfake“
În India, o jurnalistă şi un parlamentar au ajuns la rândul lor vedete în scene asemănătoare inventate de la cap la coadă.
Iar astfel de trucaje merg mult mai departe de atât. De exemplu, în 2019, Wall Street Journal a făcut cunoscut cazul unui escroc deghizat în director de companie cu ajutorul inteligenţei artificiale. Imitând vocea respectivului director, acesta a încercat să se pricopsească cu peste 220.000 de euro.
Nici Mark Zuckerberg, fondatorul Facebook, cea mai mare reţea de socializare din lume, nu a scăpat de farsa „deepfake“, trezindu-se într-un filmuleţ atribuindu-se o frază deloc onorantă: „Cine controlează datele, controlează viitorul“.
În condiţiile avansului tehnologic şi creşterii accesibilităţii la aplicaţiile „deepfake“, cercetătorii în domeniul manipulării şi responsabilii de securitate afirmă că nu mai e de glumit în cazul lor. Imaginile devin tot mai convingătoare şi depistarea adevărului de fals constituie o provocare tot mai mare.
Iar noua aplicaţie disponibilă online, ZAO, a ridicat ştacheta. Lansată la începutul lui septembrie 2019, ZAO permite unui utilizator să înlocuiască un actor într-o secvenţă de film. Simplă şi amuzantă, aplicaţia chineză s-a transformat într-o maşinărie de colectare de date şi într-un instrument care asigură cea mai mare accesibilitate la „deepfake“.
Dar, dincolo de amuzament, imagini şi filmuleţe trucate înfăţişând diverse personalităţi politice ar putea fi utilizate pentru a perturba campaniile electorale. „Mă întreb ce se va întâmpla la următoarele mari alegeri“, afirma anul trecut Vincent Nozick, lector la Institutul „Gaspard Monge“, într-un interviu acordat AFP pe tema pericolului reprezentat de avansarea tehnologiei de trucare a imaginilor.
„Deepfake-ul“, o veritabilă armă de manipulare
În opinia lui Yannick Harrel, expert în securitate cibernetică, „deepfake“-ul este deja o armă de manipulare. „Deepfake-ul este o armă informaţională care poate servi pentru diferite modele de guvernare, având atât destinaţie internă, cât şi externă“, afirmă el pentru portalul Sputnik, un instrument de propagandă al Kremlinului. Potrivit lui Harrel, „deepfake“-ul poate genera confuzie, alterare sau agravarea unei situaţii.
Pentru a le detecta, instituţii universitare din Statele Unite au dezvoltat un sistem capabil să identifice filmuleţele false în proporţie de 90%.
Google caută soluţii
Şi Google s-a implicat pe acest teren, publicând 3.000 de videoclipuri cu trucaje hiperrealiste ce prezintă oameni care par că fac sau că spun anumite lucruri pe care nu le-au făcut şi nu le-au spus niciodată în realitate. Acest calup de filmuleţe poate fi de-acum explorat de cercetători pentru „a dezvolta metode de detectare a videoclipurilor manipulate“, precizează gigantul IT.
Criticată pentru că permite dezinformare, Facebook a anunţat la rândul său lansarea iniţiativei Deepfake Detection Challenge. Scopul, potrivit reţelei, este de a încuraja industria digitală să creeze noi mijloace de detectare a filmuleţelor trucate. Nici actorii guvernamentali nu stau cu mâinile în sân, căutând soluţii pentru evitarea situaţiilor tulburi din cauza unui „deepfake“.
„Deocamdată, diferenţa dintre un filmuleţ original şi un filmuleţ trucat poate fi făcută încă, în general, cu ochiul liber“, remarcă Hao Li, profesor de tehnologii creative la Universitatea Southern California (USC), într-un interviu acordat postului american CNBC. „Însă există şi montaje care sunt deja foarte, foarte convingătoare“, precizează el.
„Suntem capabili astăzi să realizăm filmuleţe care par să fie perfect reale. Adevărata întrebare este cât timp va mai trece până când aceste tehnologii de producere a unor «deepfake»-uri hiperrealiste să devină accesibile pentru marele public. Cred că nu va fi nevoie de mai mult de 6 luni“, a estimat profesorul Hao Li.
„Deşi numeroase clipuri deepfake sunt concepute în scopuri umoristice, altele ar putea fi dăunătoare pentru indivizi şi societate”, au subliniat Nick Dufour de la Google şi Andrew Gully de la Jigsaw, divizia de cercetare din cadrul Alphabet, compania-mamă ce deţine Google.