SOCIAL: UNA MODERATRICE TIK TOK, RACCONTA COSE SPAVENTOSE DIETRO AI SOCIAL
Dietro le quinte della moderazione online: il lavoro invisibile di Sara
Negli angoli più oscuri del web, esiste un esercito di lavoratori invisibili impegnati a ripulire la nostra esperienza digitale dai contenuti più disturbanti. Sara, una moderatrice di 28 anni per TikTok Italia, condivide il suo straordinario e doloroso lavoro, svelando la cruda realtà dietro la schermata di un'apparentemente innocua piattaforma di social media.
Per due anni, Sara ha svolto il compito angosciante di scrutare all'interno delle vite digitali delle persone, esaminando ciò che molti preferirebbero ignorare. La sua confessione di non avere più un filtro che la separi dagli altri è una finestra spalancata sulla sua vita quotidiana, saturata di contenuti disturbanti: stupri, abusi su minori, suicidi, autolesionismo. Un lavoro che va oltre la normale tolleranza umana.
La sua identità è celata dietro un nome di fantasia, una scelta necessaria per proteggere la sua sanità mentale e preservare il suo equilibrio emotivo. Sara è la prima linea di difesa, la custode delle nostre menti digitali, responsabile di eliminare il male che si nasconde dietro le innocenti icone e i video divertenti di TikTok.
Il fenomeno della moderazione online non è un concetto nuovo. Nel 2016, Mark Zuckerberg si rende conto che gli algoritmi da soli non sono sufficienti e che è necessario l'intervento umano. Nasce così la figura del moderatore, una figura che ora è indispensabile per ogni social media. Secondo MarketWatch, il settore della moderazione dei contenuti digitali raggiungerà i 13,60 miliardi di dollari entro il 2027, sottolineando l'espansione di questa professione.
Il lavoro di moderazione avviene principalmente in modalità smart working, senza la necessità di recarsi in sede. I moderatori partecipano a corsi per apprendere le politiche aziendali e affrontano una fase di affiancamento, dove moderano contenuti già moderati per dimostrare il loro approccio e la capacità di applicare le regole.
Le regole sono rigide e dettagliate. La violenza grafica deve essere categorizzata in base alle policy aziendali, con ogni dettaglio che può scatenare una reazione negativa attentamente catalogato. Una volta che Sara ha etichettato un contenuto, il destino di quel video è segnato: potrebbe essere oscurato, con uno sfondo sfocato e un avvertimento all'utente, o bannato, eliminato dalla piattaforma.
La giornata di Sara è un ciclo continuo di video da moderare. Con il lavoro in smart working, si collega all'orario prestabilito e si alterna in turni per garantire una copertura 24 ore su 24 della piattaforma. Ogni ora le vengono assegnate code di lavoro, con un tempo limitato per esaminare e etichettare i contenuti inappropriati.
"Ho visto il video di un uomo che camminava in strada con la testa di sua figlia"
Il ruolo di Sara come moderatrice è cruciale per mantenere la sicurezza e l'integrità della piattaforma, ma il prezzo che paga è alto. L'insonnia, le paralisi del sonno e lo stress sono diventati compagni costanti della sua vita. Dietro ogni clic su un video divertente c'è una moderatrice come Sara, pronta a proteggere gli utenti dalla crudeltà nascosta dietro lo schermo.
Video bannati con logica, altri invece senza motivo
Sara rivela ulteriori sfumature del suo lavoro di moderatrice, sottolineando l'importanza di un supporto psicologico per affrontare il peso emotivo del suo ruolo.
Nel corso di un'intervista, chiarisce che senza questo sostegno, il lavoro sarebbe insostenibile. Un canale interno offre attività durante il turno, come giochi e attività di gruppo, per alleviare lo stress. Inoltre, uno psicologo è disponibile 24 ore su 24, garantendo un supporto costante.
Sara rivela che le regole su cosa bloccare e cosa no cambiano spesso, e alcune di esse possono sembrare prive di senso, come il bando basato sulla durata di una sigaretta in un video.
"Spesso abbiamo il compito di bannare inquadrature che non vanno bene"
Le regole variano anche da Paese a Paese, con regole generali condivise globalmente e regolamentazioni specifiche regionali. In Italia, ad esempio, esistono divieti specifici, come la bandiera con l'aquila nera fascista.
Sara sottolinea il significativo numero di contenuti pro-nazismo e fascismo sulla piattaforma, evidenziando la sfida di bilanciare la libertà di espressione e la moderazione di contenuti dannosi.
La difficoltà di tracciare il confine tra moderazione e censura emerge quando Sara riflette su situazioni in cui ha bannato contenuti che considerava discutibili. La libertà di espressione viene a volte limitata, ad esempio, nei contenuti legati al sex working. Sara riconosce che la formazione è essenziale, ma sottolinea l'importanza di dare voce a chi potrebbe non essere ascoltato altrimenti.
La sottile linea tra moderazione e censura diventa ancora più evidente quando Sara ammette di essersi trovata in situazioni in cui avrebbe preferito evitare di taggare alcuni contenuti. Tuttavia, comprende che la sua azione o inazione può influire su chiunque prenda il suo posto nella moderazione. Questo pone ulteriori interrogativi sulla complessità etica di un lavoro che richiede una costante navigazione tra regole aziendali, libertà di espressione e la necessità di proteggere gli utenti dalla violenza digitale.
Leggi l'intervista su fanpage
- Eyes Bio
Commenti
Posta un commento