“Nuova Alabarda”: stop, delete, rethink. Il mondo di Facebook.

27.03.2019 – 17.25 – “Non siamo più bambini in un dormitorio, giusto?”. Con questa frase, Mark Zuckerberg, fondatore e CEO di Facebook, ha risposto l’anno scorso a Kara Swisher, co-fondatrice di Recode, pubblicazione statunitense focalizzata sulle notizie economiche e sugli eventi della Silicon Valley. Il contesto della domanda, che acquista interesse sempre maggiore in Europa anche alla luce della nuova legge sul diritto d’autore, è quello dell’approccio di Facebook alle informazioni e ai contenuti veicolati attraverso la sua struttura. L’occasione per parlare di Facebook arriva dalla lettera di Claudia Cernigoi, giornalista pubblicista, diffusa proprio attraverso il Social Network e inviata all’associazione della stampa del Friuli Venezia Giulia.

“Sono una giornalista pubblicista che dal 1990 dirige ‘La Nuova Alabarda’, testata giornalistica regolarmente iscritta al Tribunale di Trieste. Nel 2013 ho aperto una pagina Facebook a nome della testata, com’è d’uso per gli organi di stampa. Nel corso di questi sei anni ho pubblicato una quantità immensa di articoli di attualità e di approfondimenti, soprattutto sul tema del fascismo e del neofascismo, della strategia della tensione e della storia del confine orientale, con particolare riferimento alle tematiche della Resistenza e della questione delle “foibe”; ma mi sono anche occupata di legalità, di antimafia, di ecologia, diritti civili, di rilanci di comunicati sulla situazione internazionale e via discorrendo. A corredo di tutto ciò un’amplissima galleria fotografica che documentava le manifestazioni pubbliche avvenute a Trieste ma non solo. Ieri ho ricevuto un laconico quanto lapidario annuncio dal non meglio identificato ‘Team di Facebook’ che mi comunicava che la pagina della Nuova Alabarda non era più pubblicata, e dopo circa una mezz’ora dalla contestazione della decisione da me inviata, per chiedere quantomeno i motivi che avevano portato a questa cancellazione, la pagina è scomparsa del tutto, con il contenuto di sei anni di lavoro giornalistico di indagine ed informazione, lavoro che ho perso irrimediabilmente”.

Facebook: media o tecnologia? Facebook, lo si sa, non ha mai ammesso pienamente di essersi trasformata, negli anni, in società editoriale vera e propria. Di fronte al Congresso degli Stati Uniti, in occasione dei dibattiti sulla vicenda “Cambridge Analytica”, Mark Zuckerberg ha dichiarato: “Io considero la nostra società una società di tecnologia”. Questo le dà il diritto, quindi, di cancellare i contenuti e di perseguire le sue politiche senza sottostare alle regole della stampa, così com’è accaduto numerose volte: in fondo, fa parte del contratto di licenza, e il Social offre ai suoi utenti solo un servizio, peraltro gratuito a meno di accesso agli strumenti commerciali.

Facebook, però, non rimuove le Fake News: ne riduce semplicemente la distribuzione. Mark Zuckerberg ha dichiarato in più occasioni la sua difficile (e multimiliardaria) posizione di ‘persona combattuta fra due necessità’, che identifica l’una come il dare voce alla gente, e l’altra come il mantenere sicura la comunità di persone che si affaccia al suo network. Sentiamo come nostra responsabilità”, ha detto, “quella di prevenire le false notizie e la loro distribuzione”. L’approccio del network è quindi, letteralmente, intercettare i contenuti contrassegnati come falsi o come disinformazione, validarli e, se così ritenuto opportuno, rimuoverli. Come lo fa? Sulla base di segnalazioni da parte di suoi utenti che vengono verificate da un team di ‘Fact Checkers’ o verificatori di notizie, l’identità dei quali non è però comunicata. Né chiari sono i criteri secondo i quali una notizia venga contrassegnata come falsa o inopportuna, oppure come, efficacemente, ci si possa appellare a una eventuale decisione di cancellazione o mantenimento di una notizia o di una pagina. Ciò che il ‘Team di Facebook’’, se ripetutamente contattato, suggerisce di fare in ultima istanza, è mandare una lettera di segnalazione a:

Facebook Ireland Limited
4 Grand Canal Square, Grand Canal Harbour
Dublin 2, Ireland

La cosa si chiude qui: nessun agente del ‘Team di Facebook’, dopo questa comunicazione, fornisce ulteriore supporto o richiama al telefono. C’è ancora una particolarità: non tutte le notizie ritenute ‘inopportune’ da Facebook vengono rimosse; alcune, o alcuni profili utente, vengono semplicemente ‘degradate’, ovvero spostate più in basso come grado o possibilità di condivisione, e quindi risulteranno poi praticamente introvabili. Anche in questo caso, i criteri oggettivi che permettono di stabilire i pesi che Facebook usa con gli utenti non sono chiari. “Sono ebreo”, ha dichiarato Zuckerberg, “e ci sono persone che dicono su Facebook che l’Olocausto non c’è mai stato. Lo trovo profondamente offensivo. Ma, alla fine, non credo che la nostra piattaforma debba cancellare quei contenuti. Ci sono molte cose che la gente interpreta male, sulla base delle differenze personali. Non penso che lo facciano apposta”.

Il monitoraggio dei Fake Accounts. Facebook aumenterà, per migliorare la protezione della sua comunità di utenti, il monitoraggio dei profili falsi, della pubblicità e dei Live Broadcast o ‘dirette’. Il team dei ‘valutatori’ di Facebook ammontava, nel 2018, a 20.000 persone, ed è destinato ad aumentare sempre di più; fino al momento, almeno, in cui la società sarà in grado di utilizzare con efficacia ancora maggiore l’IA – l’intelligenza artificiale – che svolge già adesso un ruolo molto importante nell’identificazione e controllo dei materiali pubblicati. “L’intelligenza artificiale riconosce, monitora e rimuove gli account non autentici e i post che contengano minacce”. Come lo faccia non è dato di sapere, e permangono comunque milioni di profili che non corrispondono effettivamente a un nome e cognome o a una identità reale, e che non sono pagine di personaggi o testate che hanno un responsabile registrato; ciascuno di noi, probabilmente, se è su Facebook conosce almeno tre persone che hanno un account con almeno il nome e cognome alterato. “Con il lancio di Facebook Live”, ha ricordato Zuckerberg, “alcuni individui hanno preso a trasmettere contenuti che incitavano a farsi del male o, in pochi casi, al suicidio, e quindi abbiamo assunto qualche migliaio di persone pronte a rispondere entro 10 minuti a questo tipo di problemi”. Nel 2018, il tempo tipico di risposta di Facebook alle segnalazioni sui contenuti era stato da 1 ora a 1 giorno: “nel primo periodo di sei mesi da quando l’abbiamo fatto, siamo stati in grado di rispondere a più di mille richieste di supporto”. 1000 richieste esaminate su 2.320.000.000 di utenti attivi ogni mese.

Di chi è la responsabilità dei contenuti messi su Facebook? Accusato, sempre nel 2018, di aver favorito la propagazione dell’odio nel Myanmar attraverso la sua piattaforma Social, Mark Zuckerberg si è difeso spiegando di aver gestito la situazione bloccando numerosi messaggi Chat estremi. Di fatto, ha così ammesso il potere della sua organizzazione di leggere, controllare e censurare anche le comunicazioni private. Facebook è quindi responsabile dei contenuti pubblicati? Non è così; se qualcuno subisce le conseguenze di un post su Facebook, sarà molto, molto difficile vedere la società in un’aula di tribunale. Le motivazioni addotte sono numerose, una di esse: “L’Intelligenza Artificiale ci offre una grande mano: il 99 per cento delle cose che vengono cancellate dalla piattaforma sono trovate automaticamente. Nessun umano legge i tuoi messaggi. È un processo automatico: se questo può prevenire cose orribili, mi sembra sia una vittoria”. La dichiarazione è di Stan Chudnovsky, responsabile del team che gestisce ‘Facebook Messenger’, rilasciata a Wired. Sembra stridere con il ‘team di Facebook’ di 20.000 persone menzionato da Zuckerberg; e non tranquillizza, non essendo ancora una volta nessuno a conoscenza dei criteri che l’IA utilizza – o utilizzerebbe – nella valutazione, conservazione, memorizzazione o meno dei messaggi, dando per scontato – per provarlo, basta parlare con Alexa o Google – che l’IA stessa possa riconoscere anche la voce. Ogni mese, nel 2018, venivano scambiati su “Messenger” otto miliardi di messaggi fra utenti e aziende. E, se l’IA può cancellare, può anche segnalare: a chi segnala, e come? “Ci sono cose che decidiamo di fare perché ce lo impone l’etica. Io sento la responsabilità di bloccare la pedopornografia e lo sfruttamento minorile su Messenger”.

“Tale accanimento”, scrive Claudia Cernigoi nella sua lettera, “nei miei confronti è piuttosto pesante da subire, in quanto comporta il blocco della mia attività di informazione su uno dei canali Social più frequentati“. “Gli uomini funzionano così”, aveva concluso Chudnovsky commentando le domande di Wired: “ci sembra sempre tutto o molto bello o molto brutto. Per molto tempo la Silicon Valley è stata la migliore cosa potesse essere capitata. Ora il vento è cambiato, e le persone vedono solo cose negative”. Anche il Web, però, è cambiato, e negli anni Novanta del secolo scorso – l’era dell’Internet “tutto bello” – i Social Network, le Intelligenze Artificiali e il Big Data ovvero i grandissimi database mondiali, in cui tutto è scritto e non morirà mai, non esistevano se non nei romanzi di William Gibson. La riflessione porta a un opinione: il mondo del Social Network e il lavoro e l’etica del giornalismo sembrano allontanarsi via via sempre di più.

Roberto Srelz