Il team di YouTube dedicato a controllare il linguaggio d’odio, inappropriato, i contenuti estremisti, i commenti pedofili o i filmati deprecabili è in continua crescita. Dopo aver affrontato diverse contestazioni e polemiche sul proprio operato di censura negli ultimi mesi, il gigante del Web ha deciso di portare il proprio team di controllo a oltre 10mila persone entro il 2018. Questa è solo l’ultima delle iniziative intraprese da un anno a questa parte per diminuire al massimo i contenuti offensivi su una delle piattaforme multimediali più note e utilizzate nel mondo.
“I revisori umani rimangono essenziali sia per rimuovere i contenuti sia per addestrare i sistemi di Intelligenza artificiale, il giudizio umano è fondamentale per prendere decisioni che tengano conto del contesto di ciascun contenuto”, afferma Susan Wojcicki, Ceo di YouTube, sottolineando come da giugno siano stati rivisti “manualmente circa due milioni di video con contenuti violenti di estremisti, contribuendo ad addestrare la tecnologia di machine learning per identificare video simili in futuro”. “Continueremo a far crescere in maniera significativa i nostri team – continua Wojcicki – con l’obiettivo di portare nel 2018 a oltre 10mila il numero totale delle persone che in Google lavorano per indirizzare i contenuti che potrebbero violare le nostre norme”. Nel suo intervento il Ceo ricorda che oltre al controllo umano YouTube utilizza l’intelligenza artificiale che “consente di rimuovere circa il 70% dei video di estremismo violento entro otto ore dal caricamento”.
La stessa piattaforma sta intensificando i propri sforzi anche per limitare i commenti offensivi e aumentare la sicurezza per i più giovani lavorando in stretta sinergia con quelle organizzazioni mondiali che tutelano i diritti dei bambini “per segnalare comportamenti e account di predatori sessuali”. Tutto ciò è stato scatenato dalle polemiche scoppiate recentemente su frasi a carattere pedofilo comparse durante le ricerche di video e ai contenuti poco appropriati per bambini nascosti in fiabe e cartoni animati. Altro tema caldo per Google e YouTube è quello della pubblicità, la parte più importante degli introiti del colosso di Mountain View. Negli ultimi mesi l’azienda americana ha bruciato quasi 23 miliardi di dollari per alcune pubblicità di grandi marchi che sono state incluse automaticamente in video dai contenuti violenti o a sfondo terroristico. “Prevediamo criteri più stringenti e maggiori controlli manuali e rinforzeremo il nostro team di revisori della pubblicità per essere sicuri che gli annunci compaiano solo dove previsto”, spiega Susan Wojcicki. “Vogliamo proteggere la nostra community ed essere un passo avanti rispetto ai malintenzionati”, conclude il CEO di YouTube.
Le contromisure che sta adottando YouTube sono in linea con quelle già in atto da qualche mese su Facebook. Infatti, dopo l’ennesimo video inappropriato che ha destato scalpore su tutti i media pubblicato proprio sul social network più famoso del mondo, Mark Zuckerberg ha preso la decisione di rafforzare il team di controllo, aggiungendo 3mila revisori ai 4.500 già esistenti, limitando quindi sensibilmente il controllo automatico affidato ai soli algoritmi. Quella del controllo sui contenuti è una delle sfide più grandi che colossi da miliardi di utenti possono affrontare, ma finalmente queste grandi compagnie lanciano un segnale chiaro di sensibilizzazione impegnandosi in maniera decisa investendo soprattutto nell’aspetto umano, fondamentale per individuare quali sono i contenuti pericolosi per il pubblico.




Lascia un commento