In una nota pubblica, YouTube ha reso noto nei giorni scorsi che le rimozioni dei video sono aumentate considerevolmente, nel secondo quadrimestre del 2020. La ragione, forse, è da riconoscere anche nell’utilizzo, da parte della compagnia, di un software in grado di applicare al meglio le regole sui contenuti per proteggere i lavoratori durante la pandemia.
Secondo alcune stime, circa 11.5 milioni di video sono stati eliminati da YouTube, quasi il doppio rispetto al numero di video rimossi nei primi 3 mesi dell’anno.
Le aziende che hanno puntato tutto sul video marketing hanno fatto largo uso di piattaforme come YouTube, per realizzare contenuti accattivanti e in grado di aumentare il proprio bacino di utenza. Negli ultimi mesi, però, i controlli sono stati rigidissimi – e non sempre a ragione.
Il software ha rimosso anche molti video “regolari”
Durante la pandemia, YouTube ha subito una riduzione sostanziale dei lavoratori all’interno della piattaforma e si è vista costretta a fare una scelta: puntare su un software ultra specializzato e in grado di controllare tutti i contenuti in modo rapido, approfondito e sicuro. Il problema, però, è che affidando tutto questo lavoro unicamente a una macchina, il rischio di rimuovere video che invece rispettano la policy aziendale è veramente dietro l’angolo. Ed è quello, poi, che è successo in questi ultimi mesi. Per questa ragione, YouTube ha speso gran parte delle sue risorse per controllare tutte le richieste di revisione da parte dei suoi utenti, che lamentavano l’eliminazione di video che invece non violavano nessun tipo di regolamento.
Il video marketing si è spinto molto su piattaforme come Vimeo e YouTube, negli ultimi anni. La maggior parte degli utenti online trascorre anche intere giornate a guardare video sui social network. Per questo motivo, le aziende hanno puntato tutto sulla produzione di contenuti video in grado di attirare e mantenere l’attenzione degli utenti il più alta e il più a lungo possibile. Una mossa come quella di YouTube, quindi, se da un lato aumenta la sicurezza di chi guarda i video, dall’altro lato mette a rischio il lavoro degli utenti che caricano sulla piattaforma i propri prodotti. È chiaro, però, che per contrastare il caricamento di video estremi o pornografici o violenti e pericolosi, YouTube ha preferito accettare questo rischio. Tutto, pur di salvare la sicurezza dei propri utenti e “spettatori”.
Tra i video rimossi, tante “sfide pericolose” e diversi scam
Tra i video cancellati ed eliminati dalla piattaforma, infatti, circa un terzo riguarda contenuti potenzialmente pericolosi per gli utenti più giovani (ormai tra i fruitori più accaniti della piattaforma): minacce, sfide e giochi pericolosi che mai andrebbero replicati per conto proprio e che rischiano, invece, di rappresentare una tentazione per i più giovani. I giovani devono essere tutelati: la loro sicurezza deve essere messa al primo posto, anche a rischio di eliminare dalla piattaforma video potenzialmente innocui o che non violino strettamente gli standard della community.
Tra i video eliminati, un buon 28% riguarda spam, scam e contenuti fuorvianti. Lo scopo di YouTube, tuttavia, è quello di migliorare sempre di più l’accuratezza di questi software, così che quando i lavoratori potranno tornare completamente operativi avranno il supporto che serve per continuare ad operare in tranquillità.