Noi instrumente Facebook pentru limitarea actelor de abuz asupra copiilor

0
Publicat:
Ultima actualizare:
FOTO Shutterstock
FOTO Shutterstock

Facebook a anunţat, pe 23 februarie, lansarea unor noi instrumente pentru a ajuta la combaterea conţinutului care prezintă acte de abuz şi exploatare a copiilor la nivelul platformei sale şi a celorlalte  aplicaţii deţinute de gigant.

Amer Owaida, security writer al ESET, explică pe blog cum funcţionează şi care e efectul măsurilor luate de compania americană.

În vreme ce primul instrument îşi propune să limiteze partajarea potenţial răuvoitoare a conţinutului de acest tip, al doilea se ocupă cu partajările fără scop maliţios.

Primul instrument vine sub forma unui pop-up afişat utilizatorilor care caută în aplicaţiile Facebook termeni care sunt de obicei asociaţi cu exploatarea copiilor. „Fereastra pop-up oferă modalităţi de a obţine ajutor de la organizaţiile de deturnare a infractorilor şi împărtăşeşte informaţii despre consecinţele vizualizării conţinutului ilegal”, a scris Antigone Davis, Şeful Global al Securităţii în cadrul Facebook, într-o postare de blog care vorbeşte despre noile instrumente.

Cel de-al doilea instrument este o alertă de siguranţă afişată în cazul persoanelor care au distribuit conţinut viral de tip „meme”, care face referire la exploatare de copii. Alerta va informa utilizatorul în legătură cu prejudiciile pe care le-ar putea suferi şi va emite, de asemenea, un avertisment cu privire la ramificaţiile legale pentru partajarea unor astfel de materiale.

„Trimitem această alertă de siguranţă, după eliminarea conţinutului nepotrivit, transferarea şi raportarea acestuia către NCMEC. Conturile care promovează astfel de conţinut vor fi eliminate. Folosim datele generate în urma alertei de siguranţă pentru a ne ajuta pe viitor să identificăm tiparele comportamentale ale celor care ar putea fi predispuşi să împărtăşească astfel de conţinut, astfel încât să îi putem educa şi să îi încurajăm să nu răspândească conţinut nepotrivit pe nicio platformă - fie că o fac în mod privat sau public", a adăugat Davis.

„În timp ce infractorii exploatează reţelele sociale pentru a comite infracţiuni pe baza unor materiale ce denotă abuz sexual asupra copiilor, trafic de minori şi turism sexual cu copii, utilizarea acestor platforme pentru a facilita acte de răpire este mai puţin cunoscută”, a declarat agenţia.

Facebook a lucrat cu experţi în domeniul exploatării copiilor, inclusiv Centrul Naţional al Statelor Unite pentru Copii Dispăruţi şi Exploataţi (NCMEC), pentru a veni cu o regulă susţinută de cercetări privind clasificarea intenţiei unei persoane din spatele partajării unui astfel de conţinut. După evaluarea a 150 de conturi raportate la NCMEC pentru publicarea de conţinut ce denotă exploatare pentru copii, Facebook a constatat că peste 75% dintre oameni nu au recurs la acest gest, cu intenţia de a face rău. Mai degrabă, au încercat să provoace indignare sau au împărtăşit conţinutul ca pe umor de slabă calitate. 

Reţeaua socială şi-a modificat, de asemenea, politicile sale destinate siguranţei copiilor, accentuând ideea că va continua să şteargă profilurile, paginile şi grupurile de Facebook, împreună cu conturile de Instagram, care partajează imagini ale copiilor inocenţi care sunt însoţite de comentarii, hashtag-uri sau descrieri ce denotă semne necorespunzătoare de apreciere ori alte observaţii cu caracter suspect despre copiii din fotografii.

„Am eliminat întotdeauna conţinutul care sexualizează în mod explicit copiii, însă e mai greu să definim conţinutul care nu este explicit şi care nu înfăţişează nuditate infantilă. Conform acestei noi politici, în timp ce imaginile în sine pot să nu încălce regulile noastre, textul care însoţeşte poza ne poate ajuta să stabilim mai bine dacă conţinutul sexualizează copilul şi dacă profilul, pagina, grupul sau contul asociat ar trebui eliminate”, a explicat compania.

În plus, pentru a simplifica procesul de raportare a conţinutului care încalcă politicile Facebook legate de exploatarea copiilor, gigantul reţelelor de socializare a adăugat opţiunea „involves a child” în categoria „Nudity and Sexual Activity” de raportare, pentru a filtra mai uşor aceste cazuri.

Reţelele sociale şi-au intensificat eforturile pentru a reduce conţinutul cu caracter abuziv asupra copiilor şi au implementat diverse instrumente şi măsuri pentru a contribui la atingerea acestui obiectiv. Anul trecut, spre exemplu, Facebook a extins controlul parental  pentru Messenger Kids în timp ce TikTok a introdus funcţia Family Pairing.

Tehnologie



Partenerii noștri

image
canal33.ro
Ultimele știri
Cele mai citite