Analiză Cât control are Inteligența Artificială asupra vieților noastre digitale? „Obiectivul nu trebuie să fie doar vizibilitatea sau like-urile"

0
Publicat:

Mii de grupuri de Facebook din întreaga lume au fost suspendate în ultimele zile din cauza unei „erori tehnice”, recunoscută oficial de Meta. Motivul exact nu este cunoscut, deși mulți suspectează că ar fi vorba despre o eroare a sistemului automat de moderare bazat pe inteligență artificială. Și atunci, în spatele acestui bug, rămâne întrebarea: cât control are, de fapt, AI asupra vieților noastre digitale?

Pe Reddit, comunitatea r/Facebook, abundă în mesaje de la administratori care și-au văzut grupurile șterse peste noapte, fără vreun motiv pertinent. Unii au pierdut mai multe comunități simultan, primind notificări pe care le consideră absurde. De exemplu, un grup cu aproape un milion de membri, dedicat fotografiilor cu păsări, a fost șters pentru că ar fi promovad „conținut cu nuditate”, potrivit TechCrunch. Un alt grup, axat pe design interior și cu milioane de utilizatori, a fost acuzat că ar promova „organizații periculoase”. Și lista nu se oprește aici.

Meta invocă o eroare tehnică, dar nu oferă detalii

Deși Meta nu a precizat dacă închiderea grupurilor este legată de recentele interdicții aplicate conturilor individuale, semnalele din mediul digital sugerează un fenomen mai amplu. Mai exact, platforme precum Pinterest și Tumblr s-au confruntat, în ultimele săptămâni, cu valuri similare de suspendări de conturi în masă. Pinterest a vorbit despre o eroare internă, dar a exclus implicarea AI-ului, iar Tumblr a menționat testarea unui nou sistem de filtrare a conținutului, fără să clarifice dacă acesta este automatizat.

Când mai multe platforme blochează conturi sau grupuri fără explicații clare, apare suspiciunea că sistemele automate scapă de sub control, iar asta erodează încrederea utilizatorilor și a creatorilor de conținut în aceste spații digitale, avertizează specialiștii.

Meta nu a oferit până acum explicații clare pentru aceste incidente. Între timp, o petiție online a strâns peste 12.000 de semnături, iar unii dintre utilizatorii afectați, mai ales cei care și-au construit afaceri în jurul acestor grupuri, iau în considerare acțiuni legale, transmite TechCrunch.

Conform sursei citate, purtătorul de cuvânt al Meta, Andy Stone, a confirmat că Meta este conștientă de problemă și că lucrează pentru a o remedia: „Suntem conștienți de o eroare tehnică care a afectat unele grupuri de Facebook. Lucrăm la remedierea situației”.

De ce algoritmii nu sunt „neutri”

Pentru sociologul Marius Wamsiedel, din cadrul Duke Kunshan University, astfel de incidente nu pot fi reduse la simple greșeli tehnice.

Dacă privim incidentul recent ca pe o simplă eroare tehnică, pierdem din vedere că asemenea probleme nu sunt nici izolate, nici reductibile la funcționarea necorespunzătoare a unor algoritmi, consideră acesta. „Automatizarea moderării conținutului de pe platformele digitale are câteva avantaje evidente: permite evaluarea unei cantități impresionante de informații într-un timp scurt, cu costuri reduse și fără pericolul ca deciziile să fie influențate de valorile sau idiosincraziile unor moderatori umani. Cu alte cuvinte, automatizarea promite o evaluare onestă, obiectivă a conținutului. Totuși, în practică lucrul acesta nu se întâmplă”, explică el.

Modelele de inteligență artificială sunt construite pe principii teoretice și antrenate baze de date care reproduc o viziune particulară a acceptabilității sociale. „În plus, există problema calibrării lor. Aici, există un compromis între sensibilitate (detectarea tuturor cazurilor reale de conținut inadecvat) și specificitate (evitarea identificărilor greșite). Analogia cea mai la îndemână este aceea cu testele medicale: un test cu o sensibilitate foarte mare poate da rezultate fals pozitive, identificând infecții care nu există de fapt; un test cu specificitate foarte mare va identifica doar cazuri de infectare reală, cu riscul de a nu diagnostica toate cazurile existente (rezultate fals negative). În cazul de față, algoritmul de moderare se pare că a fost configurat să prioritizeze eliminarea oricărui risc potențial, ceea ce a dus la identificarea unor conținuturi inofensive ca fiind periculoase”, adaugă Marius Wamsiedel.

Cazul de față ridică o întrebare fundamentală legată de transparența algoritmilor. Cu toții înțelegem ce e un model de inteligență artificială, dar nimeni nu știe exact logica pe baza căruia acesta funcționează efectiv, spune specialistul.

„În limbajul științelor sociale, algoritmii sunt niște cutii negre, procese vizibile prin rezultatele pe care le produc, dar ale căror mecanisme interioare sunt opace. Iar asta duce la o asimetrie profundă de putere între platforme și utilizatorii lor, care înțeleg foarte puțin despre cum sunt evaluați, clasificați și sancționați, dar care suportă consecințele deciziilor algoritmului. Dacă incidentul de față se datorează, cum am presupus mai devreme, calibrării modelului, putem suspecta că platforma a ales deliberat un design care să evite posibilele scandaluri mediatice și riscuri de reputație în detrimentul utilizatorilor onești, prejudiciați pe nedrept”, completează profesorul.

Când identitatea digitală devine fragilă

Din perspectiva antreprenoarei Laura Ioana Sardescu, specialist în strategii de marketing digital, problema are o altă miză: pierderea controlului asupra propriei identități online.  „Când postezi conținut pe o platformă precum Facebook, el intră, legal și tehnic, în teritoriul acesteia. Nu îți mai aparține în întregime. Ce rămâne al tău, însă, este imaginea de brand: felul în care comunici, poziționarea, valoarea pe care o construiești în timp”, declară ea. 

Tocmai de aceea, crede ea, traversăm una dintre cele mai complicate perioade pentru identitatea digitală. „Suntem încurajați să investim timp, bugete și energie într-un singur canal, fără să avem de fapt control real asupra lui. Or, tocmai aici e vulnerabilitatea: dacă un bug sau o eroare de AI îți șterge contul, grupul sau pagina, munca ta dispare. Platforma nu garantează stabilitate. De aceea, obiectivul nu trebuie să fie doar vizibilitatea sau like-urile. Ele sunt efemere și rareori conectate la publicul tău real. Scopul este să construiești autoritate într-o zonă clară de expertiză, pe mai multe canale, într-un mod strategic. Atunci când comunici relevant și coerent, în timp, brandul tău devine mai mult decât o prezență pe o platformă. Devine o voce. Iar o voce autentică nu poate fi ștearsă de un algoritm”, mai spune antreprenoarea.


Mai multe pentru tine:
„M-a lovit atât de puternic”! Celebra vedetă face dezvăluiri cutremurătoare la 53 de ani
Chillmas Deals 2025 pe eMAG: Top televizoare cu cele mai mari reduceri, de până la 5.000 de lei și calitate premium pentru living și dormitor
Black Friday 2025 „Bla-Bla Black Shopping Weeks” la XXXLutz: transformă-ți casa de sărbători cu piese spectaculoase și reduceri de până la 50%
Chillmas Deals 2025 pe eMAG: cele mai bune oferte pentru decorațiuni de Crăciun cu reduceri uriașe de până la 78%
Nu-l iartă nici după moarte?! Mariana Moculescu refuză să meargă la înmormântarea fostului soț! Unde și când va fi înmormântat maestrul?
Fashion Days Black Friday 2025 – ultimele ore de reduceri de până la 90%. Transformă-ți outfitul în cel mai spectaculos mod, cu opere de artă
Gestul șocant al Marianei Moculescu față de Horia Moculescu, chiar când acesta se afla pe patul de moarte: „Solicit să fie interzis!”
Black Friday 2025 pe Flip.ro: cele mai mari reduceri la iPhone – economii de până la 1.000 de lei și telefoane premium sub 1.000 €
VIDEO Informații înfiorătoare despre unul dintre cele mai scandaloase cazuri din istorie. Safari uman la 70.000 de lire sterline. Mai mulți bogați au ucis cu cruzime copii și femei, familii întregi. Cum s-au organizat excursiile de vânătoare umană
Ce i-a provocat unei jurnaliste cancer intestinal la 44 de ani? Nu fuma, nu bea și avea o greutate normală
Promoții de iarnă PetMax: Suplimente veterinare esențiale pentru câini și pisici cu reduceri de până la 69%