A „Nagy Bizalom-visszanyerési Kampány” újabb eseménye, hogy a Facebook termékmenedzselési alelnöke, Guy Rosen nevével tegnap egy közlemény jelent meg, mely annyiban fontos, hogy a belső moderálási elvek nyilvánosságra hozatala után először közöl adatokat arról, hogy e szabályok alapján hányszor és milyen típusú tartalmakat távolítottak el, tiltottak le.
Rosen utal rá, hogy írásával párhuzamosan ugyanarra a riportra hivatkozva az adatelemzési vezető is kiadott egy közleményt, melyben arról van szó, hogy a Facebook hogyan igyekszik mérni és elemezni a felhasználási feltételek betartását – az alelnök azt is kiemeli, hogy ez egy folyamat, jelenleg is folyik a munka, hogy átalakítsák és jobbá tegyék gyakorlatukat.
A jelentés a 2017 októbere és a 2018 márciusa közti időszakot fogja át, és hat területen elemzi a moderátori tevékenységet: grafikus módon megjelenő erőszak, felnőtt meztelenség és szexuális tevékenység, terrorista propaganda, gyűlöletbeszéd, spam, illetve hamis fiókok.
A vizsgálati szempontok a következők voltak:
- mennyi olyan tartalmat láttak a felhasználók, melyek megsértették a felhasználási feltételeket
- a Facebook mennyi tartalmat távolított el
- mennyi illegális tartalmat talált meg maga a Facebook csapata proaktívan, mielőtt azt a felhasználók jelezték volna
Rosen a jelentésből kiemelve példaként közöl néhány számot is, és megemlíti, hogy a beavatkozások nagy része a spamek és a hamis fiókok eltávolítására irányult:
- 2018 első negyedévében a Facebook 837 millió spamet törölt, ezek közül gyakorlatilag az összeset úgy, hogy maguk fedezték fel a felhasználók jelzése előtt
- a spamek elleni küzdelem lényege, hogy a hamis fiókokat felszámolják: az említett negyedévben kb. 583 millió hamis fiókot töröltek, nagy részüket a regisztráció után pár perccel
- a hamis fiókok regisztrációját egyébként is aktívan követik, meglehetős sikerrel: az alelnök szerint jelenleg a fiókok 3-4 százaléka lehet hamis
- az első negyedévben 21 millió esetben töröltek meztelen vagy szexuális tartalmú tartalmakat – ezek 96 százalékát szintén proaktív módon fedezték fel – úgy becsülik, hogy tízezer tartalomból 7-9 lehet ilyen
- a grafikusan ábrázolt erőszak miatt a negyedévben 3,5 millió tartalmat tiltottak le, ezek 86 százalékát szintén a felhasználói visszajelzés előtt fedezték fel
- a gyűlöletbeszéd szűrése már nem megy csak technológiával, ennek ellenőrzéséhez mindenképp szükség van emberi közreműködésre: a negyedévben 2,5 millió ilyen tartalmat távolítottak el, ezeknek 38 százalékát szűrte ki maga a közösségi oldal
Rosen közleménye végén hangsúlyozza, hogy nagy erőforrásokat bevetve folyamatosan dolgoznak olyan módszerek és technológiák kifejlesztésén, melyek az illegális tartalmakra irányulnak, de ezek hatékony kiszűrése roppant nehéz feladat.