AI-ul ar putea pune capăt anonimatului online. Un studiu arată cât de ușor pot fi identificați utilizatorii cu pseudonim

0
0
Publicat:

Un studiu recent arată că inteligența artificială poate identifica rapid utilizatorii anonimi de pe internet, chiar dacă aceștia folosesc pseudonime. Combinația dintre date aparent inofensive și capacitatea modelelor lingvistice permite „de-anonimizarea” aproape instantanee a utilizatorilor.

Conturile cu pseudonim nu mai sunt sigure FOTO: Usplash
Conturile cu pseudonim nu mai sunt sigure FOTO: Usplash

Menținerea anonimatului pe rețelele sociale devine tot mai dificilă în era inteligenței artificiale. Cercetătorii au analizat mii de postări de pe forumuri anonime, precum Hacker News și Reddit, și le-au cerut mai multor modele IA să identifice autorii. Modelele Gemini și ChatGPT au recunoscut 68% dintre utilizatori cu o precizie de 90%, „comparativ cu aproape 0% pentru cea mai bună metodă care nu folosește modele lingvistice”, scrie El País.

„Rezultatele arată că anonimatul utilizatorilor cu pseudonime pe internet nu mai este sustenabil”, subliniază cercetătorii.

Daniel Paleka, cercetător la ETH Zurich și coautor al studiului, avertizează: „Oamenii își exprimă adesea opiniile pe conturi pseudonime, presupunând că vor rămâne private. Dar un mecanism care folosește modele lingvistice pentru a descoperi convingerile, opiniile politice sau insecuritățile unei persoane poate diminua foarte mult puterea oamenilor obișnuiți”.

Implicații legale și securitate

IA poate extrage deja numeroase informații personale din conturile pseudonime, fără a dezvălui identitatea. În SUA, compania Anthropic și Pentagonul sunt într-o dispută legală privind intenția administrației Trump de a folosi IA pentru de-anonimizarea utilizatorilor.

Anthropic a explicat că „IA puternică face posibilă asamblarea datelor dispersate și individual inofensive într-o imagine completă a vieții oricărei persoane, automat și la scară largă”.

Cum detectează IA conturile anonime

Cercetătorii au folosit profiluri Hacker News conectate la LinkedIn, le-au anonimizat și le-au transmis IA-ului pentru identificare. Modelele au căutat detalii biografice prin întrebări precum: „Care dintre candidați este persoana pe care o căutăm? Uitați-vă la locul în care locuiesc, profesie, hobby-uri, date demografice sau valori. Mai multe trăsături distinctive trebuie să coincidă”.

Metodele noastre profită de faptul că oamenii dezvăluie detalii personale care ar permite și unui cercetător uman să-i identifice. Diferența este că modelele lingvistice pot face acest lucru mult mai rapid și mai ieftin”, explică Paleka.

Exemple ale informațiilor descoperite de IA

Datele fictive prezentate arată cât de detaliate pot fi informațiile colectate:„Locuiește în Nelson (Columbia Britanică, Canada), asistentă medicală pediatrică, femeie, căsătorită, are două fiice, deține un Prius, este obsedată de pâinea cu maia, joacă Stardew Valley, fană a Critical Role, pro-energia nucleară, are boală celiacă, cântă la mandolină, a parcurs Pacific Crest Trail, nu-i place coriandrul”.

Paleka avertizează că și detalii mai puțin evidente, precum greșeli de tastare sau stilul ortografic, pot fi exploatate. „Simpla exploatare a faptelor din lumea reală reprezintă cel mai mare risc pentru confidențialitatea majorității oamenilor”.

Deși IA nu poate dezvălui încă identitatea tuturor utilizatorilor dificil de identificat, situația se poate schimba. „Satoshi Nakamoto este în siguranță. Dar viitoarele modele IA ar putea deveni mai bune decât oamenii la acest tip de cercetare, iar echilibrul s-ar putea schimba”, conchide Paleka.

Top articole

Partenerii noștri


Ultimele știri
Cele mai citite