Facebook nella bufera: ecco come vengono “moderati” i post con temi delicati come violenza e sesso

Sono ormai un lontano ricordo i tempi in cui Facebook era visitato solo da pochi milioni di utenti che condividevano contenuti personali ma soprattutto comunicavano, fino a quando a distanza di oltre 13 anni dal lancio, Facebook si è trasformato in un colosso di internet, considerato il più grande social network al mondo con quasi 2 miliardi di utenti attivi ogni mese, con immagini, video e post che vengono pubblicati da ogni parte del mondo in quantità industriale, contribuendo alla nascita di una piattaforma molto ampia ma che, al tempo stesso, appare sempre più difficile da controllare.

E’ qui che nasce uno dei principali problemi di Facebook, legato proprio alla condivisione di post inappropriati che dovrebbero essere rimossi ma che, in molte occasioni, rimangono online. Ed è su questo argomento che una inchiesta realizzata dal Guardian svela i presunti metodi che Facebook utilizzerebbe per gestire proprio la moderazione dei contenuti più delicati, come sesso, violenza, abusi sui minori e molto altro ancora. Le rivelazioni del Guardian hanno subito scatenato una vera e propria bufera su Facebook, basando le proprie informazioni sui dettagli rivelati da una fonte anonima, che ha messo a disposizione dei giornalisti alcuni manuali che fornirebbero ai moderatori una serie di linee guida da seguire per decidere se un post merita di finire online o meno.

Secondo le rivelazioni del Guardian, Facebook starebbe affrontando una situazione molto difficile che impedirebbe alla piattaforma di gestire tutti i contenuti pubblicati quotidianamente dai suoi utenti, a causa dell’eccessiva mole di informazioni pubblicate costantemente e alla comunità in costante crescita che si avvicina ormai ai 2 miliardi di persone. E’ per questo che Facebook avrebbe realizzato un centinaio di manuali distribuiti internamente ai moderatori per consigliare come approcciarsi ai diversi tipi di contenuto, ma sarebbero proprio queste linee guida al centro di molte polemiche.

Qualche esempio fatto dal Guardian rivela che su Facebook una frase come “qualcuno spari a Trump” debba essere prontamente eliminata perchè si riferisce ad un personaggio di rilievo, ma al tempo stesso sono ammessi messaggi violenti o insulti rivolti a persone comuni perchè non risulterebbero una minaccia reale, e al tempo stesso sono ammessi anche post violenti legati alla violenza sugli animali.

Allo stesso modo le linee guida di Facebook svelate dal Guardian confermerebbero che contenuti relativi ad atti di bullismo o violenza (non sessuale) ai danni di minori, non devono essere eliminati se non sono presenti elementi sadici. Video e foto di morti violente non sempre devono essere rimossi, perchè potrebbero servire a creare una coscienza collettiva, mentre il nudo artistico è consentito, purchè non venga mostrato l’atto sessuale.

Considerata la mole di contenuti condivisa quotidianamente su Facebook, o moderatori si troverebbero quindi con una quantità di lavoro impressionante da gestire, e proprio questo elemento consentirebbe ad ogni moderatore di decidere nell’arco di 10 secondi se un contenuto è appropriato, una quantità di tempo insufficiente per una valutazione adeguata. E se da un lato Facebook si avvale di algoritmi basati sull’intelligenza artificiale per impedire la condivisione di post che violano le politiche del social network, e della segnalazione dei post da parte della community, si tratta di misure che appaiono non adeguate per far fronte alle esigenze di una piattaforma che continua a crescere a dismisura.

Commenta