ESET: Microsoft a lansat un instrument de detecţie deepfake

0
Publicat:
Ultima actualizare:

Microsoft a anunţat lansarea unui nou instrument conceput pentru a identifica deepfake-urile şi pentru a ajuta la combaterea răspândirii ştirilor false.

Amer Owaida, Security Writer al ESET, explică pe blog cum funcţionează instrumentul Microsoft.

Denumită Microsoft Video Authenticator, noua tehnologie poate analiza atât fotografii, cât şi videoclipuri, căutând semne care arată că acel mesaj a fost manipulat artificial.

Pe scurt, deepfake se referă la acel conţinut sintetic creat prin folosirea inteligenţei artificiale pentru a suprapune imaginea unei persoane pe o poză sau un videoclip deja existent. Acest lucru se poate face de la zero sau folosind un şablon, rezultatul fiind uneori identic cu realitatea. Acest lucru le permite oamenilor să pară că spun ceva ce nu au declarat vreodată sau să pară prezenţi în locuri în care nu au fost fizic.

Microsoft Video Authenticator, despre care compania speră că poate fi de ajutor şi în perioada premergătoare alegerilor prezidenţiale din SUA, poate analiza amănunţit videoclipuri şi fotografii şi poate oferi o şansă procentuală sau un scor de încredere pentru a estima dacă mass-media a fost manipulată artificial.

„În cazul unui videoclip, acesta poate furniza acest procentaj în timp real pe fiecare cadru pe măsură ce videoclipul este redat. Funcţionează prin detectarea limitei de blending a elementelor deepfake şi a efectelor subtile de estompare care ar putea să nu fie detectabile de ochiul uman”, este explicat în cadrul unui articol pe blogul Microsoft.

Instrumentul a fost creat folosind un set de date public de la Face Forensics ++, iar testarea sa a fost efectuată folosind Deepfake Detection Challenge Dataset, ambele fiind considerate a fi premergătoare tehnologiilor de formare şi testare a detecţiei.

Cu toate acestea, gigantul cu sediul în Redmond se aşteaptă ca tehnologiile deepfake sau altele similare să evolueze şi să devină mai sofisticate. „Întrucât toate metodele de detectare AI au rate de eşec, trebuie să înţelegem şi să fim pregătiţi să răspundem la deepfake-urile care eschivează metodele de detectare. Astfel, pe termen mai lung, trebuie să căutăm metode mai puternice pentru a menţine şi a certifica autenticitatea articolelor de ştiri şi a altor mijloace media”, a declarat Microsoft.

În cadrul companiei, nu există multe instrumente care să ajute cititorii să verifice dacă articolul media pe care îl vizualizează provine dintr-o sursă de încredere şi că materialul nu a fost modificat. De aceea, Microsoft lansează, de asemenea, o nouă piesă de tehnologie care urmăreşte să descopere conţinutul manipulat sau controlat, precum şi să asigure cititorii că articolul media pe care îl văd este autentic. Tehnologia este alcătuită din două părţi.

Imagine indisponibilă

Prima componentă este integrată în Microsoft Azure şi permite creatorului de conţinut să adauge hashuri şi certificate digitale la conţinutul său, care se păstrează ca o parte integrată sub formă de metadate oriunde se răspândeşte acel conţinut pe paginile web. A doua componentă este un cititor care verifică certificatele şi se asociază cu hashurile pentru a le confirma autenticitatea.

Gigantul tehnologic a colaborat, de asemenea, cu Universitatea din Washington, Sensity şi USA Today pentru a lansa un test interactiv pentru a educa oamenii privind ”mass-media sintetică” şi pentru a observa deepfake-urile. Deşi testul se adresează cetăţenilor din Statele Unite în perioada premergătoare alegerilor prezidenţiale, îl poţi face şi tu aici.

Tehnologie



Partenerii noștri

Ultimele știri
Cele mai citite