La situazione, vista dalla prospettiva di tre dei principali giganti tech che hanno un impatto politico e sociale molto forte - non solo nelle stagioni elettorali- non è incoraggiante. Due giorni fa Rob Goldman, numero due della divisione di Facebook dedicata alla pubblicità, è stato entusiasticamente citato a ritwittato da Donald Trump. Goldman aveva scritto su twitter che l’obiettivo dei troll russi non è stato influenzare le elezioni, tanto è vero che la maggior parte degli spazi pubblicitari sospetti sono stati acquistati solo dopo il voto; l’obietivo era più in linea di principio, sostiene, «dividere l’America diffondendo odio e paura». Trump ha riassunto la cosa sostenendo che Facebook gli avesse dato ragione. In realtà, come spiega bene Scott Shane, l’esperto di sicurezza nazionale del New York Times, «si tratta di un misunderstanding sempre più comune. La stragrande maggioranza dei 126 milioni di americani che, secondo Facebook, sono stati esposti a materiale propagandistico russo, hanno visto post, non pubblicità pagate. Le pubblicità pagate sono state una piccola parte dello sforzo russo». Il che smonta anche la tesi di chi (come per esempio Ari Fleischer, l’ex portavoce di George W. Bush) fa notare che i russi hanno speso (o almeno questo si sa finora) 46mila dollari su Facebook prima delle elezioni, mentre Hillary Clinton e Trump hanno speso insieme 81 milioni di dollari. Il punto non sono (solo) le pubblicità mirate (peraltro spesso negli stati più in bilico), ma la totalità dei post. È un discorso diverso, e non illuminarlo non sarebbe in buona fede.

Non si può dire che Twitter e Google stiano facendo un servizio assai più brillante. Facciamo due esempi diversi, due altre storie. Su Twitter valga il fatto che - a differenza di Facebook - loro prassi è evadere il più possibile le domande dei giornalisti (abbiamo riprovato in questi giorni), e nel frattempo cancellare i tweet e gli account che si ritengono con certezza legati ad attività delle troll factory russe, in primis l’Internet Research Agency di San Pietroburgo. Questo rende estremamente difficile ad analisti e giornalisti ricostruire i dataset - foss’anche parziali - che aiutano a capire dove, in quali lingue e quali spazi politici ha operato la Russia. Soprattutto, rende difficile quantificare il fenomeno, specialmente nei paesi extra-Usa.

Su Google una zona gravemente critica viene ora sottolineata da una ricerca di Jonathan Albright, professore di media digitali a Columbia University, su come sta funzionando - oggi, nel febbraio 2018 - l’algoritmo di ricerca, dopo che l’azienda aveva fatto sapere dei suoi tanti sforzi per correggerlo. Albright ha testato alcune parole chiave, ripetutamente e anonimizzandosi anche, da diversi computer. I risultati sono stati sempre abbastanza simili, assai preoccupanti. «Ecco che cosa vedono i ragazzi se digitano sulla tastiera alcuni dei temi più controversi», scrive. Facciamo qui il semplice elenco di cosa ha trovato Albright: digitando «blacklivesmatter» (il movimento internazionale nato dalla comunità afroamericana che si batte contro violenza, razzismo, suprematismo bianco), si ottiene come spiegazione dall’algoritmo di Google «blacklivesdontmatter», «blacklivesshirt» (magliette), «blasklivestwitter» «black lives matter nyc». Se si digita «i nazisti sono», si ottiene: «il nemico», «le nuove persone normali», «i migliori furfanti», «siamo noi i cattivi?». Se si digita «le femministe sono» si ottiene «pazze», «folle», «ubriache», «infelici», «gelose» , «noiose». Se si digita Ku Klux Klan si scopre che l’organizzazione razzista e violenta è «un esempio di», «un’organizzazione cristiana», «un qualche tipo di movimento sociale», «qui è durerà», «è tornato», «è ancora in circolazione», «è cristiano», «si sta espandendo», «eccezionale», Infine, è «cattivo». Se si digita i nazisti erano, si ottiene nell’ordine: «socialisti», «non socialisti», «di destra», «non di destra», «non erano socialisti», «non erano il diavolo», «erano cristiani», «erano socialisti democratici». Ferguson, la città del Missouri teatro di ripetute proteste antirazziste dopo l’assassinio di Michael Brown, un diciottenne afroamericano da parte di un agente della polizia) , è per Google: «una menzogna», «una messa in scena», «non riguarda la razza», «un teppista», «qualcosa di pianificato», «una bufala».

Fermiamoci qui. Albright porta diversi altri esempi, testati più volte. «Mi chiedo come ancora possa avvenire tutto ciò», si domanda il professore. È come se gli esempi pescati dall’algoritmo, osserva, fossero ricavati pari pari dai forum e dalle sub-comunità su Reddit, o da certe chat twitter. Un’azienda potentissima, dotata della più importante divisione di ricerca privata al mondo sull’intelligenza artificiale, non riesce a fissare questo apparentemente semplice, nefasto problema.

I commenti dei lettori