Poliția Română avertizează asupra creșterii numărului de înșelătorii cu deepfake-uri. Cum să ne ferim de „capcanele” AI folosite pentru fraude și manipulare
0Poliția Română atrage atenția asupra pericolelor tot mai mari generate de inteligența artificială, în special de videoclipurile și imaginile false create cu ajutorul noilor tehnologiilor AI generative. Potrivit autorităților, aceste instrumente au devenit preferatele infractorilor cibernetici, fiind folosite nu doar pentru fraudă, ci și pentru manipulare, afectarea reputației, provocarea de traume emoționale sau răspândirea unor falsuri despre fenomene științifice.
Într-un comunicat oficial, Poliția Română avertizează asupra unor persoane care se prezintă în mod fals drept reprezentanți ai instituției și încearcă să inducă în eroare populația, folosind tehnici de tip deepfake.
„Deepfake-urile (videoclipuri false create cu AI) şi imaginile generate artificial au devenit instrumentele preferate ale autorilor infracţiunilor din domeniul criminalităţii informatice, promovate masiv pe reţelele de socializare. Cetăţenii de bună-credinţă sunt induşi în eroare de aceste «capcane» crezând că văd celebrităţi, experţi financiari sau persoane aflate la nevoie”, arată Poliția Română.
Cele mai frecvente tipuri de fraude cu AI întâlnite în 2025
• Trading scam și investment fraud
Videoclipuri deepfake cu oameni de afaceri sau politicieni care „recomandă” investiții în crypto, forex sau platforme care promit îmbogățirea rapidă. Victimele sunt redirecționate către site-uri false unde depun bani ce ajung direct la infractori.
• Scam-uri caritabile
Deepfake-uri cu copii bolnavi, victime ale dezastrelor sau vedete care cer donații urgente. Sumele transferate prin link-uri false ajung în conturile infractorilor.
• Romance scam cu identități create de AI
Infractorii creează profiluri extrem de convingătoare, folosind imagini și clipuri generate artificial. După ce dezvoltă o relație emoțională cu victima, cer bani pentru „urgențe medicale” sau „bilete de avion”.
• Fraudă CEO/CFO (Business E-mail Compromise avansat)
Infractorii folosesc video-call-uri deepfake în care „șeful” solicită transferuri urgente de bani.
Deepfake-uri cu personalități care „oferă gratuit” produse sau servicii, în realitate scheme de înșelătorie.
Potrivit statisticilor, tentativele de fraudă cu deepfake-uri au crescut masiv în 2025, pe fondul avansului tehnologic, iar pierderile la nivel global se ridică la zeci de miliarde de dolari anual.
Imagini cu persoane fictive: o nouă tendință periculoasă
Poliția avertizează și asupra proliferării imaginilor create 100% de AI cu persoane care nu există în realitate, extrem de realiste și folosite pentru:
- romance scams și catfishing,
- profiluri false de influenceri,
- promovarea de scheme piramidale,
- creare de „martori” în povești de investiții,
- șantaj și hărțuire, prin imagini compromițătoare fabricate.
Riscuri majore: de la pierderi financiare la manipulare politică
Utilizarea AI în scop infracțional poate duce la:
- pierderi financiare semnificative,
- traume emoționale,
- erodarea încrederii în instituții și media,
- manipulare politică și electorală,
- distrugerea reputației, în special prin deepfake-uri de tip revenge porn,
- amenințări la adresa securității naționale, inclusiv prin falsuri cu lideri politici.
La ce să fii atent în ceea ce privește videoclipurile deepfake
1. Trebuie verificat clipitul ochilor → în multe deepfake-uri vechi, clipitul era anormal, însă, în anul 2025, acest aspect a fost îmbunătățit considerabil, dar încă apar inconsistențe;
2. Mișcările buzelor și sincronizarea cu sunetul → adesea nu sunt perfecte, mai ales în limbi non-engleză;
3. Iluminarea și umbrele → verifică dacă lumina de pe față se potrivește cu fundalul;
4. Reflexii în ochi și dinți → adesea lipsesc sau sunt nenaturale;
5. Mâini și degete → încă o slăbiciune majoră a multor modele A.I. – aspectul degetelor este anormal, ori sunt prea multe sau prea puține;
6. Caută artefacte → pete ciudate, blur în jurul feței, tranziții nenaturale;
7. Mâini și degete deformate (apar încă frecvent la deepfake-urile prezente în anul 2025);
8. Fundal inconsistent sau obiecte topite;
9. Ochi asimetrici sau pupile anormale;
10. Păr anormal sau îmbrăcăminte care nu are sens fizic;
11. Aspecte ale unor obiecte sau bunuri din videoclip sau imagine care par deformate;
12. Folosește reverse image search (Google Lens, TinEye) – dacă imaginea nu apare nicăieri altundeva înainte de data postării, e suspectă.
Măsuri de protecție și prevenire pentru cetățeni
Poliția Română a emis o serie de recomandări pentru a identifica materialele create cu ajutorul AI.
1. Regula care se aplică pentru toate măsurile de protecție împotriva oricărei tentative de înșelăciune: Dacă pare prea frumos ca să fie adevărat (îmbogățire rapidă, cadouri de la celebrități, iubire perfectă în două săptămâni etc.), ESTE FALS;
2. Nu da click pe link-uri din reclame sau mesaje nesolicitate;
3. Nu transfera bani niciodată cuiva pe care l-ai cunoscut doar online;
4. Verifică întotdeauna sursa oficială: Dacă un om de afaceri, o persoană de notorietate sau orice altă personalitate promovează ceva, caută pe contul acesteia oficial de pe rețelele de socializare verificat și vezi dacă a postat acolo;
5. Activați autentificarea în doi pași (2FA) în aplicațiile și conturile importante, folosind o aplicație de tip „Authenticator” (nu doar SMS);
6. Este necesară raportarea conținutului suspect pe platformele pe care apare;
7. Se pot folosi extensii browser care detectează automat deepfake-urile;
8. În cazurile în care ați fost victima unei înșelăciuni în mediul online, sesizați cât mai rapid organele judiciare, întrucât o reacție promptă poate sprijini în mod semnificativ desfășurarea investigațiilor.