Come funziona la moderazione su Facebook. Una fonte lo rivela a Valigia Blu

Come funziona la moderazione su Facebook. Una fonte lo rivela a Valigia Blu

Giorni fa abbiamo ricevuto una mail da una fonte che vuole rimanere anonima e che lavora per una delle aziende a cui Facebook ha appaltato il lavoro di moderazione. Cosa emerge dal suo racconto e qual è la risposta di Facebook Italia.

Il 2017 è segnato dall’evoluzione continua di Facebook nel tentativo di migliorare il proprio ecosistema. La lotta al clickbait, alle notizie false, al linguaggio d’odio e al razzismo, da una parte, e le problematiche legate al rischio di censura, ai video in diretta, alla trasparenza e alle pressioni dei governi, dall’altra, hanno portato Facebook a confrontarsi con questioni che fino a pochi anni fa potevano essere considerate marginali.

Possiamo dire che nell’ultimo anno la moderazione dei contenuti è stata il tallone d’Achille del social network. E come abbiamo visto in diverse occasioni, trovare un giusto compromesso tra diritto di parola (che negli Stati Uniti è considerato uno dei valori più importanti della democrazia) e rimozione dei contenuti non è per niente facile.

Pochi giorni fa Arianna Ciccone faceva l’esempio di quanto accaduto a Marco Tonus, disegnatore satirico bloccato su Facebook per un’illustrazione di qualche anno fa scambiata per apologia del nazismo.

Pubblicato da Arianna Ciccone su Giovedì 10 agosto 2017

Nel caso di Tonus il blocco è stato rimosso pochi giorni dopo, con il riconoscimento dell’errore da parte di Facebook. Ma come funziona esattamente la moderazione dei contenuti? Siamo davvero nelle mani di algoritmi che non sono in grado di capire l’ironia? E come può migliorare questa situazione?

Dopo lo status di Arianna Ciccone, siamo stati contattati da un analista-moderatore Facebook (che preferisce mantenere l’anonimato e noi abbiamo accettato visto che potrebbe perdere il lavoro), che lavora per un’impresa di servizi tecnologici, che gestisce la moderazione per conto di Facebook. Il social network esternalizza infatti queste operazioni a imprese specializzate nell’analisi e gestione delle conversazioni online come Arvato, Cpl Recruitment, BCforward, Accenture, etc.

L’iscrizione a Facebook è vincolata all’accettazione delle condizioni d’uso della piattaforma: una sorta di regolamento che dice agli utenti cosa è permesso e cosa non è permesso fare sul social network. La trasgressione di queste linee guida comporta una sanzione, come per esempio l’eliminazione di un contenuto ritenuto non idoneo agli standard della community, il blocco temporaneo del profilo o il ban permanente.

È importante ricordare che la rimozione di contenuti, il ban o il blocco temporaneo di un profilo sono sempre preceduti dalle segnalazioni degli utenti Facebook, ci spiega la nostra fonte. La responsabilità dei famigerati algoritmi, tirati in ballo troppo spesso come capro espiatorio, è invece marginale. Esistono sì dei filtri che segnalano contenuti potenzialmente dannosi per la community (pornografia, spam, etc.), ma ogni decisione di rimozione ricade sempre sul giudizio (umano) di un analista (che lavora nel cosiddetto “team di Community Operations”).

Oggi come oggi la priorità non è quindi rendere gli algoritmi più “intelligenti”, ma selezionare un team altamente qualificato per svolgere questo lavoro. In attesa dell’algoritmo perfetto (se mai esisterà) dobbiamo ricordarci che le segnalazioni degli utenti sono esaminate da moderatori umani, con tutti i problemi che questo comporta: fretta, pregiudizi, gap culturale, errori, etc.

Criteri di selezione dei moderatori e gap culturale

Oltre a confermarci in parte quanto già rivelato dalle inchieste del Guardian e di ProPublica, la nostra fonte pone l’accento sui criteri di selezione del personale. Il social network fornisce sì le linee guida e il supporto per interpretare i contenuti, ma non interviene nelle modalità con cui l’impresa a cui è affidato il lavoro seleziona i moderatori.

Questo modus operandi, ci spiega l’analista, avrebbe effetti estremamente negativi sulla qualità del lavoro.

Nessuna delle multinazionali che svolgono tali funzioni per Facebook ha sedi in Italia destinate a questo progetto e per loro la soluzione più conveniente è assumere personale locale con una sufficiente comprensione della lingua italiana. Secondo la nostra fonte, il risultato sarebbe la formazione di team misti composti da italiani e italofoni, con una remunerazione leggermente al di sotto dello stipendio medio del paese in cui operano.

Una persona di un’altra nazionalità che ha studiato l’italiano sarà certamente in grado di capire il significato letterale dei commenti scritti in quella lingua, ma non avrà mai il background culturale e le conoscenze di una persona nata e cresciuta in Italia per comprendere determinati contesti e interpretare contenuti ambigui. E le ambiguità, le iperboli, le analogie sono il sale del sarcasmo, dell’ironia e della satira. Senza contare la difficoltà che uno straniero (per quanto qualificato e preparato) può avere nel cogliere i riferimenti al contesto politico e sociale, alla cultura, alla società o alla nostalgia generazionale.

Questo gap culturale, prima ancora che linguistico, si traduce in una moderazione dei contenuti approssimativa, spesso letterale. Più propensa all’eliminazione di foto, status e commenti ritenuti ambigui che alla comprensione del contesto nel quale essi sono inseriti e del loro significato reale. A questa situazione, di per sé grave, dobbiamo aggiungere il fattore tempo.

Quantità, non qualità

Il Guardian ha stimato che il tempo medio che un moderatore impiega per decidere se un contenuto rispetta o no le linee guida è di circa 10 secondi. Questo si deve alla mole enorme di segnalazioni da controllare e al numero relativamente ridotto di analisti.

La nostra fonte ci ha confermato che le imprese che lavorano per Facebook tendono a privilegiare la quantità e non la qualità, per cui se si vuole mantenere una produttività alta non è possibile soffermarsi troppo sul contesto della conversazione. È nell’interesse dell’azienda (che fattura a Facebook in base alla quantità di segnalazioni analizzate), è nell’interesse degli analisti (che ricevono incentivi per la velocità con cui svolgono il loro lavoro), ma non è certo nell’interesse di noi utenti.

La fretta (banalmente) è probabilmente la causa del blocco inflitto al disegnatore satirico Marco Tonus. Scorrendo freneticamente status, commenti, immagini, il moderatore può aver confuso quel disegno per una vera svastica (simbolo d’odio non permesso dalle linee guida del social network), non capendo che si trattava di una parodia grafica in un contesto politico/satirico (situazione tollerata dalle linee guida e non passibile di ban).

Un altro caso eclatante degli ultimi giorni è il blocco di 24 ore inflitto a Massimo Biancalani, un prete di Pistoia che aveva pubblicato delle foto che ritraevano alcuni ragazzi africani durante un momento di svago in piscina, accompagnate dalla scritta: “Loro sono la mia patria, i razzisti e i fascisti i miei nemici!”

È difficile immaginare che quelle foto possano violare la linee guida del social network. Eppure questo è stato il verdetto dei moderatori di Facebook in seguito alle segnalazioni ricevute dagli utenti. Segnalazioni probabilmente arrivate dopo che Matteo Salvini ha pubblicato questo tweet con l’obiettivo di aizzare il suo seguito contro il parroco, che per 24 ore ha ricevuto insulti sul suo profilo senza avere la possibilità di replicare.

Prima di prendercela con i fantomatici algoritmi, imperfetti, impreparati, incapaci di ridere alle nostre battute, dobbiamo quindi riflettere su come Facebook gestisce la moderazione dei contenuti: esternalizzando il lavoro a un’impresa che può assumere personale di fatto non qualificato per svolgere quel lavoro. E per svolgerlo nel minor tempo possibile. Questo è il nocciolo della questione.

Facebook ha dimostrato in diverse occasioni di essere sensibile alle richieste dell’opinione pubblica, per questo è importante che siano gli utenti in primis a pretendere maggiore trasparenza. Le aziende come Facebook, Twitter e Google sono fortemente impegnate nel contrastare il terrorismo, per questo sono stati fatti investimenti sia in termini tecnologici, di ricerca che in termini di assunzioni di personale qualificato. Pensiamo che anche per la moderazione dei commenti e l’applicazione delle policy sia necessario questo tipo di impegno e di investimento. In gioco ci sono i diritti dei cittadini e la libertà di espressione.

Abbiamo contattato Facebook Italia per un commento. Il social network ha confermato a Valigia Blu ciò che abbiamo scritto sugli algoritmi: la moderazione è sempre svolta da esseri umani, mentre la funzione degli algoritmi è di solo sostegno ai moderatori. Per esempio, i moderatori non ricevono tutte le  segnalazioni per ogni contenuto, ma l’algoritmo invia loro un’unica segnalazione riassuntiva. Inoltre, gli analisti sono divisi per aree di specializzazione (spam, profili falsi, pornografia, linguaggio d’odio, etc.) ed è l’algoritmo che, in base alle segnalazioni ricevute, decide a quale area destinare la moderazione di un determinato contenuto.

Facebook ci ha confermato inoltre che il “team locale” italiano non si trova in Italia ma all’estero (per motivi di sicurezza non possono rivelare in quale città) e opera sotto la guida del team centrale europeo di Dublino. Non hanno potuto rivelarci quali siano le competenze richieste per questo lavoro, né quali siano i criteri di selezione. Ci è stato detto soltanto che, sebbene la selezione del personale sia a carico dell’impresa che gestisce il lavoro in subappalto, quest’ultima deve rispettare i criteri di assunzione che Facebook segue per le sue assunzioni interne. Oltre al training di partenza, a tutti i moderatori vengono offerte 40 ore settimanali facoltative di sostegno psicologico: un programma specificamente pensato per supportare le persone che ricoprono questi ruoli. “Fornire un ambiente sicuro per la comunità di Facebook è la nostra priorità numero uno. Abbiamo creato un network globale di centri operativi in grado di lavorare 24 ore su 24, 7 giorni su 7, in modo da avere persone con le competenze linguistiche e culturali adeguate ad analizzare le segnalazioni che riceviamo. Abbiamo scelto di lavorare solo con partner globali altamente qualificati che si prendono cura dei propri dipendenti e che offrono remunerazioni adeguate”, ha dichiarato Laura Bononcini, Head of Public Policy Facebook Italia.

Ci è stato confermato che il social network si serve (anche) di madrelingua, ma che non tutte le segnalazioni necessitano di una persona madrelingua (ci è stato fatto l’esempio delle foto di nudo). Quando la conoscenza di una lingua è necessaria per una revisione, come in un caso di hate speech, questo compito sarebbe assegnato a un madrelingua, secondo quanto dichiarato da Facebook. In realtà, se torniamo all’esempio del prete bloccato per aver pubblicato delle foto con dei ragazzi africani in piscina, ci chiediamo come sia possibile che un moderatore qualificato e madrelingua possa giudicare quel contenuto razzista. Non ci è stato rivelato qual è la percentuale di madrelingua rispetto al totale.

Parlando degli errori commessi, Facebook assicura che svolge controlli di qualità sulle decisioni prese dai moderatori, per essere sicuri di mantenere un’alta accuratezza nella gestione delle segnalazioni degli utenti e per imparare dagli errori. “Sappiamo che abbiamo ancora molto da fare e per questo motivo nel corso del prossimo anno aggiungeremo 3.000 persone al nostro team di Community Operations in tutto il mondo – oltre alle 4.500 già presenti – per migliorare la revisione dei milioni di segnalazioni che riceviamo ogni settimana”. Questi 3000 nuove assunzioni, però, non saranno fatta direttamente da Facebook: anche in questo caso il social network ricorrerà in larga misura all’esternalizzazione.

In conclusione, a nostro avviso rimane l’assoluta necessità di avere un team umano qualificato e competente sul territorio, con l’obiettivo di migliorare la gestione, la valutazione e offrire agli utenti la possibilità di fare appello contro la decisione di rimozione e ban. Appelli che dovranno essere poi gestiti nel minor tempo possibile. Obiettivamente, considerando che su Facebook siamo oltre 2 miliardi di utenti, il fatto che ci siano solo 7.500 persone a gestire la moderazione ci pare davvero troppo poco. Ripetiamo: stiamo parlando della nostra libertà di espressione e dei nostri diritti. L’aspetto della moderazione deve essere migliorato e potenziato sia sotto profilo delle competenze che per numero di moderatori coinvolti.

Fonte: https://www.valigiablu.it/facebook-moderazione-fonte/

CARTE DELLA LUNA
di Alessandra Donati

Carte della Luna

di Alessandra Donati

Dopo aver scritto il libro di grande successo "Manifestare con la Luna" che insegna a manifestare la vita dei tuoi sogni facendoti aiutare dal Potere della Luna, Alessandra Donati ha ideato le splendide "Carte della Luna".

Con queste carte, l'autrice ti fornisce uno strumento straordinario per sintonizzarti con il magnetismo lunare per realizzare i tuoi desideri. 

Le fasi lunari influenzano i ritmi della Terra, le maree e persino i tuoi pensieri... Ecco perché se in luna crescente pensi a ciò che desideri, lo puoi ottenere più velocemente e se in luna calante ti concentri su ciò che vuoi eliminare, riuscirai più facilmente a lasciarlo andare.

Grazie alla lettura delle "Carte della Luna" potrai vedere cosa ti riserva il futuro sui temi della vita (amore, relazioni, soldi, lavoro...) e come creare un altro possibile futuro grazie ai desideri che partono dal Divino che è in te.

La confezione comprende due meravigliosi mazzi di 31 carte ciascuno, per un totale di 62 carte illustrate. 

Ognuno dei due mazzi si compone di:

  • una carta di luna nuova;
  • 13 carte di luna crescente;
  • una carta della vigilia di luna piena;
  • una carta di luna piena;
  • una carta di Haniel;
  • 14 carte di luna calante.

Insieme alle carte trovi un libretto guida di 83 pagine che ti spiega in modo chiaro e dettagliato come sono fatte le carte, a cosa servono e come usarle per trarne il massimo beneficio. Per interpretare ogni carta, fai sempre riferimento alle spiegazioni contenute nel libretto: è facile, piacevole e divertente!

Queste splendide carte ti inviano messaggi dal divino per conoscere a fondo te stesso e realizzare i tuoi desideri in armonia con le fasi lunari. Le carte rendono felice la tua anima in modo semplice e armonioso: sono uno strumento per cambiare la qualità dei tuoi pensieri e delle tue emozioni, grazie alle immagini che toccano il cuore.

Alza con fiducia la tua carta e ottieni indicazioni su come modificare la tua vita per armonizzarla con l'Universo e rendere possibile la realizzazione di ogni tuo desiderio.

Non solo: con queste carte puoi aiutare i tuoi amici e clienti a fare chiarezza nella loro vita.

Le carte lette con intento sincero ti danno risposte precise a ogni domanda grazie alla presenza, nelle immagini, della Luna e del soave Arcangelo Haniel che la custodisce.

Per realizzare queste magiche carte l'autrice ha tratto ispirazione dal suo libro "Manifestare con la Luna", nel quale è spiegato il metodo per manifestare i desideri seguendo le fasi lunari.

Come la luna con le sue fasi ha potere magnetico sulle maree, sui raccolti agricoli, sulle nascite, sulla crescita dei capelli e sulle emozioni umane, così queste carte ti aiutano ad acquisire potere sulla tua mente/ego per piegarla ai desideri del tuo cuore.

...

I commenti sono chiusi.