Milano, 5 dicembre 2017 - 22:07

Social e bambini: YouTube assume nuovi moderatori e Facebook lancia Messenger Kids

Le mosse dei colossi della Rete per tutelare i più piccoli e arginare la diffusione di contenuti sconvenienti

shadow

«I revisori umani rimangono essenziali sia per rimuovere i contenuti sia per addestrare i sistemi di machine learning (sistemi di apprendimento automatico, ndr), perché il giudizio umano è fondamentale per prendere decisioni che tengano conto del contesto di ciascun contenuto». A esprimersi in questi termini è Susan Wojcicki, amministratrice delegata di YouTube, nell’annunciare un aumento delle persone dedicate alla moderazione dei video. La mossa, obbligata, arriva a poche ore dal lancio di Facebook Messenger Kids, applicazione di Menlo Park per i 6-13enni. L’obiettivo, anch’esso obbligato, dei due maggiori colossi della Rete è di (tentare di) creare un ambiente sereno per i bambini, oltre che per gli adulti. Che si tratti di fake news, hate speech o terrorismo la richiesta è unanime e sempre più pressante in tutto il mondo: le società della Silicon Valley si assumano la responsabilità di quanto fanno circolare e intervengano tempestivamente sul materiale sconveniente.

La piattaforma di proprietà di Google arriva da settimane di polemiche e sopracciglia alzate (e portafogli chiusi) degli inserzionisti per aver esposto i più piccoli a video violenti o non appropriati sia nell’area Kids, versione di YouTube con contenuti solo per bambini, sia nel resto del sito. Nel 2018, porterà a 10 mila il numero di persone impegnate nel controllo di quanto viene segnalato dagli utenti. Anche Mark Zuckerberg aveva parlato di 10 mila nuovi revisori da assumere entro il prossimo anno. YouTube sta già sfruttando il machine learning per individuare più rapidamente quanto va cancellato: dal mese di giugno dichiara di aver rimosso oltre 150 mila video per estremismo violento, il 98 per cento dei quali riconosciuti come tali dal machine learnig. Al momento, la società comunica inoltre di essere in grado di eliminare circa il 70 per cento dei video di estremismo violento entro 8 ore da quando vengono caricati e il 50 per cento in 2 ore. La stessa tecnologia verrà utilizzata anche per proteggere i contenuti per bambini e contrastare l’hate speech.

A differenza di YouTube con Kids, Facebook non si era ancora avventurato nel campo delle aree protette. Lo fa a circa due mesi dall’acquisto dell’app Tbh, che va per la maggiore fra i teenager americani, e consapevole di dover intercettare gli under 13 prima che si appassionino ad altre soluzioni. Messenger Kids, così si chiama la novità disponibile per ora nei soli Stati Uniti per dispositivi iOs, è una versione ad hoc e senza pubblicità del sistema di messaggistica cui siamo abituati. Per iscriversi i piccoli utenti non dovranno essere in possesso di un numero di telefono e creare un profilo, ma affidarsi a quello dei genitori, che avranno così il completo controllo dei loro scambi. Facebook ha promesso una moderazione più attenta rispetto a quella presente sulla piattaforma principale, senza dare ulteriori dettagli in merito, e ha assicurato che non raccoglierà alcun dato. Una volta compiuto il 13esimo anno di età, quando è consentita l’iscrizione al social, non ci sarà la migrazione automatica dal profilo-baby a quello adulto. I giovanissimi potranno quindi decidere se continuare o meno a rimanere nel regno di Menlo Park.

© RIPRODUZIONE RISERVATA
ALTRE NOTIZIE SU CORRIERE.IT