Foto Deepfake și furtul identității: Mai avem control asupra vieții noastre private?
0În era digitală, intimitatea a devenit tot mai greu de protejat – o fotografie, o înregistrare video sau o simplă postare poate fi prelucrată și transformată radical, iar victimele acestui fenomen, mai ales copiii, se confruntă cu efecte devastatoare.

Te trezești într-o dimineață și descoperi că pe internet circulă imagini compromițătoare cu tine. Chipul îți aparține, dar corpul nu. Nu ai făcut niciodată acele fotografii, nu ți-ai dat acordul, dar bulgărele de zăpadă s-a dus la vale și cu greu poate fi oprit – fotografiile sunt redistribuite și devin (aproape) imposibil de șters. Aceasta este realitatea sumbră a deepfake porn, una dintre cele mai periculoase forme de abuz digital, care afectează mii de victime în fiecare an.
99% dintre victime, femei și fete
O formă de manipulare digitală care folosește inteligența artificială pentru a genera imagini sau videoclipuri false cu caracter pornografic, deepfake porn a devenit una dintre cele mai agresive amenințări la adresa vieții private. În România, un caz recent din Arad ne-a arătat cât de ușor poate fi folosită această tehnologie pentru hărțuire și abuz. Un elev de 17 ani a creat și distribuit imagini nud false cu 12 dintre colegele sale, folosind aplicații de inteligență artificială specializate în modificarea fotografiilor. Profitând de opțiunea de vizualizare unică de pe WhatsApp și Instagram, a reușit să evite consecințele imediate, iar victimele au rămas fără dovezi pentru a putea lua măsuri legale. Acest incident este doar unul dintre numeroasele cazuri raportate la nivel global, unde 98% din conținutul deepfake este pornografic, iar 99% dintre victime sunt femei și fete, inclusiv minore, potrivit unui studiu realizat în 2023 de Home Security Heroes, un startup dedicat prevenirii furtului de identitate în mediul online.
În ultimii ani, tehnologia deepfake a fost utilizată în mod abuziv pentru a crea conținut pornografic fals, afectând numeroase persoane, de la celebrități până la indivizi obișnuiți. În aprilie 2020, artista Delia Matache devenea victima unui astfel de atac, imaginea sa fiind folosită fără consimțământ în materiale explicite distribuite online. „Nu e amuzant deloc, pentru că chestia asta se poate duce foarte departe. Ți se poate întâmpla ție, i se poate întâmpla mamei tale, copilului tău... ceea ce ar fi absolut horror. Cel mai horror... (...) Încerc să nu dramatizez lucrul ăsta, deși el poate fi dramatic pentru orice persoană echilibrată... poate fi de un impact, te poate marca o chestie de genul ăsta, nu e plăcut să te vezi într-o astfel de ipostază, ești folosit, manipulat... Emoțional, te poate destabiliza un pic. Nu vă doresc să vi se întâmple și nu cred că astfel de activități se vor opri aici“, declara Delia la acel moment.
De asemenea, la nivel internațional, mii de celebrități au fost afectate de fenomenul deepfake pornografic. O investigație a dezvăluit că peste 250 de personalități britanice se numără printre victimele acestui tip de abuz. Cu alte cuvinte, oricine poate deveni victima pornografiei create de AI, de la vedete și persoane publice cunoscute la nivel național și internațional până la oameni obișnuiți care, adesea, nu dispun de resursele necesare pentru a se proteja sau pentru a lupta împotriva abuzatorilor, mai ales că reglementările și legislația se dovedesc a fi insuficiente.
Armă pentru cyberbullying
Dacă în cazul celebrităților, astfel de abuzuri ajung rapid în atenția publicului și pot fi combătute cu ajutorul echipelor juridice și al notorietății, pentru copii și adolescenți, realitatea este cu atât mai dură – lipsa de resurse și sprijin îi lasă vulnerabili în fața unor agresiuni digitale care le pot afecta profund dezvoltarea emoțională și viața socială. Un studiu sociologic realizat în noiembrie 2024 de organizația „Salvați Copiii“ a evidențiat impactul profund al cyberbullyingului asupra echilibrului emoțional al copiilor din România: 10% dintre ei au raportat că au fost victime ale distribuirii fără consimțământ a unor imagini sau mesaje private, cu scopul de a fi umiliți pe platformele de socializare. Mai alarmant este faptul că jumătate dintre acești copii au declarat că astfel de abuzuri se întâmplă lunar sau chiar mai des.










De asemenea, în urma cercetării numite „Efectele cyberbullyingului asupra echilibrului emoțional al copiilor“ s-a constatat faptul că 8% dintre copii au fost victime ale distribuirii unor imagini foto/video cu conținut explicit sexual, indiferent dacă acestea erau reale sau manipulate digital. Dintre aceștia, jumătate au fost expuși la astfel de situații recurent, lunar sau mai frecvent. Aceste date subliniază dimensiunea fenomenului și impactul pe care îl are asupra vieții private a tinerilor, demonstrând cât de ușor poate fi exploatată tehnologia, inclusiv deepfake-ul, pentru hărțuire și umilire publică. Lipsa unor mecanisme eficiente de protecție și conștientizare face ca victimele să fie adesea lipsite de resursele necesare pentru a combate astfel de abuzuri.
În timp ce alte țări au început să reglementeze fenomenul deepfake, în România încă lipsesc măsuri legislative clare care să protejeze victimele. Cum pot fi pedepsiți cei care creează și distribuie astfel de materiale? Ce soluții legale și tehnologice există pentru a combate acest fenomen? Și, cel mai important, cum ne putem proteja identitatea digitală ca utilizatori într-un mediu online unde realitatea poate fi distorsionată cu atât de multă ușurință, inclusiv de minori?
Deepfake porn și lipsa dovezilor
„Weekend Adevărul“ a discutat cu Mihai Rotariu, manager al Direcției Comunicare, Media și Marketing din cadrul Directoratului Național de Securitate Cibernetică (DNSC), despre modul în care tehnologia deepfake este folosită în România, despre riscurile pe care le implică pentru utilizatori și despre măsurile pe care aceștia le pot lua pentru a se proteja.
Una dintre cele mai mari provocări ale deepfake-ului este lipsa dovezilor, mai ales atunci când imaginile sau videoclipurile sunt distribuite prin funcția „one-time view“ (o singură vizualizare) pe aplicații de mesagerie și rețele sociale. În cazul recent din Arad, unde un elev de 17 ani a generat și distribuit imagini nud false care le înfățișau pe colegele sale, fotografiile au dispărut imediat după vizualizare, făcând dificilă dovedirea abuzului. „În astfel de situații, soluția trebuie să vină și din partea platformelor digitale, care trebuie să implementeze sisteme automate de identificare a acestui tip de conținut, dar și din partea utilizatorilor, care trebuie să își asume responsabilitatea de a raporta astfel de cazuri“, explică Mihai Rotariu. „Dacă ai primit o astfel de imagine și nu ai raportat-o, trebuie să te gândești la responsabilitatea ta, nu doar ca utilizator, ci și ca membru al societății“.
Legea, în urma tehnologiei
O altă problemă majoră este faptul că, în România, victimele deepfake porn nu au întotdeauna mijloace legale clare pentru a se apăra. „Momentan, nu există o cale clară prin care o persoană afectată să poată acționa rapid în justiție, mai ales dacă nu are acces la imaginea respectivă ca dovadă“, subliniază Rotariu. Astfel, în timp ce tehnologia deepfake evoluează rapid, metodele de protecție și prevenție rămân în urmă. „Din păcate, cei care folosesc această tehnologie în scopuri malițioase sunt mereu cu un pas înainte, găsind metode tot mai creative pentru a o exploata. În schimb, utilizatorii obișnuiți nu dispun de soluții la fel de eficiente pentru a se proteja împotriva unor astfel de atacuri digitale“. Aceste lacune creează un teren fertil pentru abuzuri, iar fără reglementări mai stricte și mecanisme mai eficiente de protecție, victimele deepfake-urilor rămân fără apărare în fața unor atacuri care le afectează viața personală și reputația.
Totodată, am discutat cu reprezentantul DNSC, Mihai Rotariu, și despre necesitatea unor reglementări mai stricte și a unor mecanisme eficiente de detectare și combatere a acestui fenomen. „În acest moment, reglementarea deepfake-urilor nu este suficient de strictă, nici în România, nici la nivelul Uniunii Europene“, subliniază expertul. Parlamentul European a adoptat recent AI Act, un regulament care urmărește protejarea drepturilor fundamentale, democrației și statului de drept, dar aplicabilitatea sa rămâne o provocare. „Regulamentul clasifică sistemele de inteligență artificială în funcție de nivelul de risc – inacceptabil, ridicat, limitat și minim. Spre exemplu, deepfake-urile care prezintă un risc inacceptabil sunt interzise, iar cele cu risc ridicat trebuie etichetate corespunzător, astfel încât utilizatorii să fie conștienți de natura artificială a conținutului. Furnizorii de astfel de tehnologii au obligația să informeze clar utilizatorii, iar platformele online trebuie să ia măsuri pentru prevenirea răspândirii deepfake-urilor dăunătoare“. Însă, spune Rotariu, rămâne de văzut cât de eficiente sunt aceste măsuri. Un exemplu este Digital Services Act, legislația care obligă rețelele sociale să elimine conținutul ilegal. „Totuși, aici intervine o problemă importantă: viteza de reacție. Un deepfake care rămâne online suficient de mult timp poate avea un impact major, generând victime multiple într-un timp foarte scurt“.

Un prim filtru al platformelor online
În prezent, unele platforme online încep să impună măsuri minime pentru transparentizarea deepfake-urilor. YouTube, Twitter (X), Instagram și Facebook oferă opțiunea de a eticheta materialele create sau modificate cu AI, însă această funcționalitate rămâne opțională, ceea ce limitează eficiența sa. Totuși, această măsură este insuficientă, deoarece depinde exclusiv de utilizatori să marcheze astfel de conținuturi, fără un mecanism strict de verificare. „Momentan, platformele nu obligă utilizatorii să își semnaleze conținutul deepfake, ceea ce lasă loc pentru manipulare și utilizare abuzivă“, subliniază Mihai Rotariu. „Din punctul meu de vedere, deepfake-urile ar trebui reglementate mult mai atent. Deși legislația începe să fie conturată, suntem încă în etapa incipientă a implementării, iar eficiența acestor măsuri va putea fi evaluată abia în următorii ani, în funcție de rapoartele Comisiei Europene cu privire la respectarea noilor reglementări“, atrage atenția reprezentantul Directoratului Național pentru Securitate Cibernetică.
În ultimii ani, deepfake-urile au fost utilizate pe scară largă în fraude online și campanii de dezinformare, în special prin intermediul conturilor de social media compromise. „Începând cu august 2023, atacatorii au folosit aceste rețele pentru a distribui reclame deepfake care redirecționau utilizatorii către tentative de fraudă. Într-o singură perioadă de câteva zile, am identificat personal 500 de astfel de reclame targetate exclusiv pentru România“, precizează Rotariu. Deși aceste practici rămân o amenințare, rețelele sociale au început să își îmbunătățească sistemele de identificare automată a deepfake-urilor malițioase, iar în ultimele luni numărul acestor reclame a scăzut semnificativ.
Noi tehnologii, noi metode de combatere a abuzurilor
O inițiativă importantă în combaterea utilizării neautorizate a imaginilor personale vine din partea Meta, care testează o tehnologie de identificare facială menită să prevină folosirea deepfake-urilor fără consimțământ, în prima etapă pentru persoane publice sau celebrități. „Dacă imaginea mea este utilizată într-un deepfake, pot înregistra parametrii biometrici ai feței mele în baza de date a Meta, iar platforma ar trebui să blocheze automat orice conținut care îi conține“, explică Mihai Rotariu. Totuși, această funcționalitate nu este încă disponibilă în Uniunea Europeană din cauza restricțiilor impuse de Regulamentul General privind Protecția Datelor (GDPR). „Există deja discuții între platformele de social media și Comisia Europeană pentru a obține o derogare de la GDPR, astfel încât aceste tehnologii să poată fi utilizate exclusiv pentru combaterea deepfake-urilor infracționale și a dezinformării. Interesul platformelor este evident, deoarece reputația lor este afectată de răspândirea acestui tip de conținut“, subliniază Rotariu.
Deși aceste măsuri reprezintă un pas înainte, experții avertizează că tehnologia deepfake evoluează rapid, iar metodele de detectare trebuie să țină pasul cu noile forme de manipulare digitală. „Să sperăm că, pe viitor, va fi din ce în ce mai greu pentru infractori, atacatori cibernetici și dezinformatori să exploateze această tehnologie în scopuri malițioase“, concluzionează Rotariu.
Decizia e la noi: amenințare vs progres
Ca orice tehnologie, deepfake-ul poate fi folosit atât în mod pozitiv, cât și negativ. Deși în prezent este asociat în mare parte cu fraude, manipulare și hărțuire digitală, această tehnologie are și aplicații creative. „O utilizare interesantă a deepfake-ului este în zona de divertisment și creativitate. Vedem tot mai multe clipuri realizate cu această tehnologie, care sunt promovate pe platformele media și aduc un element de amuzament. Totuși, în acest moment, utilizările negative continuă să fie dominante la nivel global“, explică reprezentantul DNSC. Astfel, în contextul actual, este esențial ca utilizatorii să fie vigilenți și sceptici atunci când întâlnesc conținut care pare prea spectaculos sau ieșit din comun. „Trebuie să fim atenți la materialele care par prea bine realizate pentru a fi adevărate, pentru că există o probabilitate ridicată să fie manipulate cu ajutorul inteligenței artificiale și să aibă scopuri de dezinformare“.
Unii specialiști argumentează faptul că deepfake-ul nu este în sine bun sau rău, ci devine periculos sau benefic în funcție de intenția celui care îl folosește. Dacă este utilizat pentru manipulare, fraudă sau hărțuire, impactul său poate fi devastator, afectându-ne viețile și reputațiile, precum și modul în care funcționează societatea în general. Într-o lume în care orice declarație video sau înregistrare audio poate fi contestată ca fiind falsificată, adevărul devine relativ, iar consecințele pot fi dezastruoase – de la lipsa totală a încrederii în ceilalți, la răspândirea masivă a dezinformării, subminarea proceselor democratice și chiar destabilizarea alegerilor și a sistemelor juridice.
Pe de altă parte, dacă este utilizat în scopuri constructive, deepfake-ul poate deveni un instrument inovator – în educație, artă sau divertisment ne ajută să învățăm mai ușor și să înțelegem mai bine lumea din jur. De exemplu, deepfake-ul este deja folosit pentru recrearea digitală a unor personalități istorice, aducând la viață figuri precum Albert Einstein sau Marie Curie pentru a explica concepte științifice generațiilor actuale. În cinematografie, această tehnologie permite întinerirea actorilor sau chiar continuarea unor roluri după decesul acestora, cum a fost cazul lui Carrie Fisher în seria „Star Wars“. Mai mult, în domeniul accesibilității, inteligența artificială și tehnologia deepfake sunt folosite pentru sincronizarea automată a buzelor în dublajul filmelor, astfel încât conținutul este mai ușor accesibil în mai multe limbi.
În final, responsabilitatea utilizării acestei tehnologii ne aparține tuturor. Depinde de noi să o folosim ca un instrument care ne educă, ne ajută să înțelegem mai bine istoria și ne oferă noi modalități de exprimare creativă, nu ca o armă împotriva adevărului și vieții private. Într-o lume în care realitatea poate fi tot mai ușor distorsionată, alegerea ne aparține: transformăm deepfake-ul într-un instrument al progresului sau îl lăsăm să devină o amenințare?