Vivono dentro le piattaforme, invisibili, silenziosi, eppure presenti in gran numero: si calcola siano circa 100 mila i moderatori di contenuti. Una realtà ancora poco studiata, analizzata in un libro che rivela come il loro sia «un lavoro impossibile»
di Marco Dotti, tratto da vita.it
Vivono dentro le piattaforme, invisibili, silenziosi, eppure presenti in gran numero: si calcola siano circa 100 mila i moderatori di contenuti. Una realtà ancora poco studiata, analizzata in un libro che rivela come il loro sia «un lavoro impossibile»
Un tempo si parlava degli invendibili. Gli invendibili, spiegava il vecchio Marx, sono quei lavoratori che, espulsi dai processi produttivi, non hanno più un valore d'uso, né di scabio. I tempi sono cambiati, ma gli invendbili di ieri sono gli obsoleti di oggi.
Il loro, spiega Jacopo Franchi, esperto di digital humanities, in un libro molto documentato apparso per i tipi di Agenzia X (Gli obsoleti, 2021), «è un lavoro impossibile». Sono i moderatori di contenuti. Vivono dentro le piattaforme, invisibili, silenziosi, eppure presenti in gran numero: si calcola siano circa 100 mila in Italia.
Chi sono gli obsoleti?
Sono un popolo invisibile. L'invisibilità è la caratteristica dei moderatori di contenuti. Eppure, per capire cosa è diventata oggi la rete, dobbiamo cercare di illuminare questa zona d'ombra. Stimarne il numero esatto è difficile, le stime più riduttive parlano 150mila persone che lavorano per le grandi piattaforme digitali per visionare contenuti segnalati dagli utenti e dall'Intelligenza Artificiale.
Stiamo parlando, quindi, di rimozione di post potenzialmente offensivi che vengono segnalati su un social network...
Esattamente e, nello spazio di poche frazioni di secondo, questi lavoratori devono decidere se un'immagine, un messaggio, un post, un tweet ha diritto o meno di esistenza su quelle piattaforme.
I moderatori di contenuti sono un esempio, forse il più estremo, dei nuovi lavori creati per "nutrire" le macchine digitali. Lavoratori che sono controllati e comandati dalle macchine e possono essere disconnessi dalle macchine stesse
Jacopo Franchi
Il tutto dopo che il post è stato pubblicato e qualcuno, uomo o macchina, ha avviato la segnalazione per violazione della policy.
Quindi sono manovalanza cognitiva al servizio degli algoritmi?
Si pensa esistano solo automatismi e Intelligenza Artificiale, invece... Per anni è stata raccontata la favola che gli algoritmi che erano in grado di distribuire contenuti erano anche in grado di riconoscerli. Non è così, perché il discernimento richiede ancora un lavoro umano. I moderatori di contenuti fanno sforzi incredibili per stare ai ritmi di segnalazione, il turnover è altissimo e, in questa posizione, gli obsoleti non durano più di qualche mese.
È un fenomeno chiave della gig economy, eppure trattato raramente. Si parla molto di rider, in questi giorni, ma anche questi lavoratori mi sembrano schiavi del clic per usare un'espressione di Antonio Casilli...
Sentii parlare di questo fenomeno, per la prima volta, nel 2014. In seguito, occupandomi di digitale e facendo il social media manager, ho cominciato a imbattermi in questi lavoratori sempre più di frequente. Dietro l'algoritmo c'è sempre, anche, una persona. Ovviamente non possiamo dimenticarci dell'algoritmo, ma se perdiamo di vista le persone che lavorano attorno o "dentro" quell'algoritmo, come nel caso dei moderatori di contenuti, ci lasciamo scappare un fenomeno fondamentale del lavoro cognitivo.
Quello che vale per i social, vale anche per i motori di ricerca?
Assolutamente sì. Ma il fenomeno è sempre lo stesso: le persone ignorano che, dall'altra parte dello schermo, ci sono lavoratori in carne ed ossa. O, peggio, pensano che siano algoritmi. Per me i moderatori di contenuti sono un esempio, forse il più estremo, dei nuovi lavori creati per "nutrire" le macchine digitali. Lavoratori che sono controllati e comandati dalle macchine e possono essere disconnessi dalle macchine stesse quando le loro performance non mantengono alcuni standard.
Il grosso della forza lavoro delle piattaforme è costituito da lavoratori manuali che mantengono il posto di lavoro per pochi mesi e rispondono in modo quasi meccanico alle consegne dell'azienda. Eppure senza di loro le piattaforme non sarebbero quello che sono attualmente
Jacopo Franchi
Il filo rosso di questo fenomeno è l'invisibilità. Nel mio libro non mi sono concentrato sulla violenza, sulle pressioni psicologiche o sul trauma che questi lavoratori certamente subiscono. Il focus è capire perché sono mantenuti invisibili. Anni fa si negava la loro esistenza, poi si è cominciato ad ammetterla senza mai dire quanti sono, chi sono e quali sono i contenuti moderati da esseri umani e quali dalle macchine. Mantenendo sfumato il loro effettivo impatto si minimizza l'importanza del lavoro di queste persone all'interno dell'economia delle piattaforme.
In sostanza, si nasconde il fatto che le piattaforme dipendono dal lavoro che non hanno alcuna competenza tecnica digitale avanzata come ci si aspetterebbe da loro...
Il grosso della forza lavoro delle piattaforme è costituito da lavoratori manuali, che mantengono il posto di lavoro per pochi mesi e rispondono in modo quasi meccanico alle consegne dell'azienda. Eppure senza di loro le piattaforme non sarebbero quello che sono attualmente. Probabilmente avrebbero anche molta più difficoltà a coinvolgere gli inserzionisti. Le piattaforme di maggior successo sono quelle che hanno investito maggiormente nella moderazione umana e in questa forza lavoro di riserva.
Rispetto alle macchine, l'umano non può dimenticare a comando. Non esiste un reset per ciò che si è visto, letto, sentito; è questa l'obsolescenza che colpisce i moderatori di contenuti
Jacopo Franchi
Non le sembra paradossale che, proprio in questi anni, mentre si parlava di uso discriminatorio della rete (hate speech, fake news), ci si dimenticasse proprio di questo esercito cognitivo di riserva?
La promessa che le piattaforme hanno fatto al proprio pubblico, ovvero abolire il lavoro dell'intermediario umano nella distribuzione e selezione di contenuti continua ad avere molto successo. Si crede a questa narrazione, nonostante le testimonianze dei moderatori che stanno uscendo allo scoperto. Si preferisce non vedere, non capire, al massimo dibattere sugli effetti, mai sulle strutture profonde. Probabilmente ci dobbiamo liberare di molte scorie che, negli anni delle magnifiche sorti dell'internet, si sono accumulate. Finché costa meno far lavorare un uomo, perché scegliere un algoritmo?
Circolano molti scenari apocalittici, ma forse un rapporto più centrato sull'umano, anche per le piattaforme, è possibile. Si tratta di dare visibilità all'invisibile e ristabilire alcuni punti di diritto...
A livello di moderazione di contenuti, la mia visione è che non si può continuare così. La soluzione non può essere unicamente dare più soldi ai moderatori o garantire loro sostegno psicologico, visti i livelli di burnout a cui sono soggetti. Il tema è più ampio, ad esempio andrebbe diviso il potere di diffondere dal potere di censurare, altrimenti si creano cortocircuiti sul piano socio-politico, oltre che su quello del diritto del lavoro. A un livello più macro, invece, bisognerebbe uscire dalla logica del "beta permanente": quella logica che porta a immettere sul mercato prodotti e tecnologie che non sono testate a sufficienza, lo vediamo con Clubhouse. Dovremo in futuro pensare all'immissione di nuove tecnologie che debbano rispondere a principi predefiniti.
Che tipo di principi?
Principi, magari validati da entità terze, che dovrebbero toccare tre aspetti: il lavoro umano che accompagna la tecnologia; l'etica su cui sono costruiti gli algoritmi; come viene costruito il design delle piattaforme.
Sono scelte che cambiano la nostra esperienza d'uso, ma anche l'impatto generale sulla nostra società e, di conseguenza, sul lavoro. Dobbiamo spingere affinché diventi trasparente dove finiscono di lavorare gli algoritmi e dove comincia il lavoro umano.
Perché il termine "obsoleti" per qualificare questi lavoratori?
Perché sono persone che arrivano a occupare un posto di lavoro come moderatori, magari prive di competenze specifiche, ma che una volta acquisite quelle competenze le perdono. Le perdono perché diventano obsolete e, di conseguenza, lo diventano lro stessi. Negli ultimi anni l'obsolescenza è passata dalle macchine agli uomini: è diventata il limite dell'umano rispetto alla tecnologia. Un limite nella nostra impossibilità di aggiornarci e apprendere nuove conoscenze. In realtà, i moderatori apprendono continuamente nuove conoscenze perché la policy e le regole d'ingaggio cambiano continuamente. Il limite che ho riscontrato è che non possono "dimenticare a comando" per cui, oltre un certo livello, non puoi fare come le macchine come se non avessi un passato e non avessi visto o letto certe cose. Rispetto alle macchine che ti fanno concorrenza, il problema non è l'aggiornamento, ma l'impossibilità del moderatore di contenuti di dimenticare a comando. Da un certo momento in poi ciò che hai imparato nel passato entra in conflitto con quanto dovresti applicare nel presente e, qui, il soggetto umano diventa "obsoleto". Esce dal sistema.
Versione app: 3.25.0 (fe9cd7d)