YouTube non sarà salvato dagli algoritmi

YouTube non è per i bambini - scandalo Elsagate. Fonte Reddit

Tutti conosciamo YouTube: è la piattaforma web di video sharing più nota al mondo, il secondo sito più visitato su Internet – dopo il motore di ricerca Google – e il luogo dove noi possiamo trovare le nostre canzoni preferite, trailer di film o anche le notizie dell’ultima ora. Ogni giorno vengono visualizzati video per un totale di qualche miliardo di ore ma, nonostante tutto il tempo dedicatogli, YouTube rimane un pericolo pubblico.

I casi più recenti dell’Elsagate, Logan Paul e il CS:GO Lotto Scandal sono sufficienti per dimostrare come questo servizio aperto a tutti abbia delle falle eccessivamente grandi e come gli algoritmi legati alla analisi dei video pubblicati siano, in realtà, più che imperfetti. Google stessa, attuale proprietaria della piattaforma fondata nel 2005, ha avviato una campagna per assumere nuovi dipendenti addetti solo alla moderazione del sito proprio successivamente ai primi due scandali citati, segno della impellente necessità di personale umano per compensare agli errori dei sistemi automatici implementati e continuamente aggiornati, specialmente dopo l’Elsagate.

Questo neologismo sincratico si riferisce all’insieme di video dai contenuti inadeguati (vedi sotto) “mimetizzati” tra tutti quelli pubblicati su YouTube Kids, ossia la sezione lanciata nell’aprile 2017  – accessibile mediante l’applicazione apposita – con cartoni animati, canzoni, filastrocche e video per l’apprendimento. Mediante l’inserimento di tag e titoli che rimandano all’educazione o al gioco, i gestori dei canali soggetti ad indagine riescono a portare l’algoritmo fuori strada e, dunque, a includere nella lista dei video certificati anche quelli con immagini relative a violenza, abusi sessuali, morte e altro ancora, altamente pericolose per i bambini che le guardano pensando di assistere ad avventure di Spiderman o alle storie di Peppa Pig.

Questo tipo di contenuti esiste dal 2014 ma è stato portato all’attenzione del pubblico da parte dei media soltanto nel 2016/2017, anni in cui lo scandalo Elsagate ha raggiunto l’apogeo della popolarità grazie anche alla creazione di YouTube Kids: i video sono stati spesso definiti, da testate come The Guardian, The Verge e The Awl, come “non sense”, “nightmarish” (letteralmente, da incubo) e infine come “fake toons”, quasi a portarli alla pari delle “fake news” che colpiscono fasce d’età diverse ma con lo stesso pericolo. Per avvertire l’utenza è stato coniato, poi, il termine stesso Elsagate (da Elsa, protagonista del film Frozen, e -gate, suffisso usato per indicare scandali di vario genere) e fondato il subreddit apposito dove venivano – e vengono ancora oggi – segnalati e commentati tutti i canali incriminati, la maggior parte poi chiusi con la rimozione di massa da YouTube – più di 300 canali, per un totale di più di 150.000 video – del novembre 2017.

Soltanto grazie alla sensibilizzazione da parte degli utenti è intervenuto, dunque, YouTube stesso per cercare di debellare questa minaccia dalla piattaforma che, però, non è l’unica. Verso la fine di dicembre 2017, Logan Paul, vlogger e celebre utente del social Vine, ha pubblicato un video dal titolo clickbait, ossia scritto appositamente per attirare il click dell’utente e, dunque, la visualizzazione che poi porta guadagni al creatore di contenuti, nel quale visita Aokigahara, conosciuta anche col triste appellativo di “foresta dei suicidi”, e si imbatte in un cadavere di un suicida pendente da un albero. La sua reazione (una risata) è ciò che ha portato il contenuto all’attenzione dei social e alle critiche anche dei suoi followers, i quali lo hanno accusato di sfruttare il morto per ottenere ulteriore notorietà e di rendere leggera una questione molto pesante, ossia l’alto tasso di persone che si tolgono la vita in Giappone (circa 105 persone all’anno di media).

La reazione di YouTube è stata quella di demonetizzare ogni suo contenuto e toglierlo da ogni progetto in cui era coinvolto, esattamente come successe al celebre PewDiePie dopo lo scandalo del video “antisemita” e il caso “n-word” dello stesso anno. Azioni commesse dalla piattaforma di video sharing, però, soltanto dopo l’intervento di testate giornalistiche, blog o forum. Come per il fenomeno “CS:GO Betting” del 2016 dove, in seguito a delle rivelazioni fatte dal canale YouTube H3H3 Production, vennero accusati di truffa nei confronti di milioni di giocatori di Counter Strike: Global Offensive i proprietari del sito CSGO Lotto, dove gli utenti potevano scommettere soldi veri per vincere contenuti del videogame utili soltanto a personalizzare il gioco stesso, ma dal valore che varia dai €0,02 ai €20.000.

L’audience dei loro canali YouTube, dall’età media di 17 anni, assisteva alle scommesse fatte da questi, i quali vincevano migliaia di euro in tempi brevi: uno dei video più celebri, per esempio, era intitolato “Come fare $13.000 in 5 minuti”. I videogiocatori venivano dunque invogliati a giocare d’azzardo nonostante la loro minore età, la quale non veniva verificata in alcun sito di betting prima dello scandalo. Anche in questo caso gli algoritmi non hanno fatto il loro dovere e l’azione intrapresa dalla piattaforma, per vie legali, contro i due creatori di contenuti, è stata tardiva. Il problema di questi è evidente: manca la sensibilità all’etica, caratteristica prettamente umana che non si può dare ad una intelligenza artificiale o ad un codice matematico. Gli algoritmi hanno dunque solo un ruolo di riorganizzazione dei video per fini commerciali o anche il compito di proteggere i visitatori di YouTube? I primi casi sono stati questi, quali altri ci saranno in futuro e come si interverrà prontamente contro di essi?

Be the first to comment

Rispondi

%d blogger hanno fatto clic su Mi Piace per questo: