• Programmatic
  • Engage conference
  • Engage Play
di Caterina Varpi

YouTube, rimossi 7,8 milioni di video in tre mesi

Google comunica come sulla piattaforma di video sharing si effettuino rimozioni più rapide e ci sia una migliore gestione dei commenti

Continua l'impegno di Google contro i contenuti inappropriati su YouTube. Oggi Mountain View comunica come sulla piattaforma di video sharing si effettuino rimozioni più rapide e ci sia una migliore gestione dei commenti. «Abbiamo sempre utilizzato un mix di tecnologia e revisori per identificare i contenuti che violano le norme sulla nostra piattaforma, e nel 2017 abbiamo cominciato ad utilizzare una tecnologia di machine learning più avanzata per segnalare i contenuti da sottoporre alla revisione dei nostri team. Questa combinazione ci ha permesso di acquisire una sempre maggior rapidità nel far applicare le nostre norme. Abbiamo preso l’impegno di rimuovere velocemente i contenuti che violano le Norme della community e anche di comunicare i nostri progressi. Ecco perché ad aprile abbiamo lanciato il Rapporto trimestrale sull'applicazione delle Norme della community di YouTube». Google annuncia un ampliamento di questo report con ulteriori informazioni, quali le rimozioni dei canali, il numero di commenti rimossi e il motivo per cui un video o un canale è stato rimosso. La priorità per la piattaforma è rimuovere i contenuti inappropriati prima che siano visti. Da luglio a settembre 2018, riporta il comunicato, sono stati rimossi 7,8 milioni di video. L'81% di questi filmati sono stati rilevati dalle macchine. Il 74,5% dei video rilevati dalle macchine non aveva ancora ricevuto nessuna visualizzazione. Quando un video che viola le Norme viene identificato, viene rimosso e viene inviata al canale una segnalazione. Interi canali vengono spenti se pubblicano ripetutamente contenuti proibiti dalle Norme della community o se contengono anche una sola violazione inaccettabile, come lo sfruttamento sessuale dei minori. Gran parte dei tentativi illeciti proviene da utenti che cercano di caricare spam o contenuti per adulti: oltre il 90% dei canali e più dell'80% dei video rimossi a settembre del 2018 violava le norme sullo spam o sui contenuti per adulti. Guardando specificamente ad aree in cui i volumi delle violazioni sono piccoli ma le tipologie di violazione sono assolutamente inaccettabili, come l’estremismo violento e la sicurezza dei bambini, ben oltre il 90% dei video caricati a settembre del 2018 e rimossi per estremismo violento o sicurezza dei minori avevano meno di 10 visualizzazioni, riporta la nota. "Come per i video, anche nei commenti ci affidiamo a una combinazione di tecnologia smart per il rilevamento e revisori in carne e ossa per segnalare, esaminare e rimuovere spam, incitamento all'odio e altri comportamenti inappropriati", prosegue il comunicato. Per questo sono stati realizzati strumenti che permettono ai creator di moderare i commenti che ricevono sui propri video. Da luglio a settembre 2018, i team di revisori hanno rimosso oltre 224 milioni di commenti che violavano le Norme della community. Nella maggior parte dei casi, la rimozione era dovuta a spam.

scopri altri contenuti su

ARTICOLI CORRELATI