YouTube dice basta alle teorie della cospirazione
La Terra non è piatta e presto dovresti iniziare a vedere meno video su YouTube che dicono il contrario. La piattaforma implementerà i filtri, a partire dagli Stati Uniti, per evitare suggerimenti di video che reclamizzano “cure miracolose o asseriscono notizie palesemente false su eventi storici come l’11 settembre”.
L’annuncio di YouTube
Venerdì 25 gennaio, YouTube ha annunciato in un post sul blog dell’azienda che metterà tra i suggerimenti contenuti meno “borderline” eliminando i video non veritieri che sono potenzialmente dannosi per la società. Essenzialmente, YouTube, che è di proprietà di Google, pensa di aver creato una soluzione migliore per fermare la diffusione dei video relativi teorie della cospirazione ( o teorie del complotto) sulla sua piattaforma.
Alcuni esempi dei video incriminati
Esempi di video che YouTube spera di nascondere includono i video che promuovono cure fasulle per malattie gravi o affermazioni palesemente false su eventi storici come l’11 settembre. Molti di questi video “borderline” non violano necessariamente le Norme della community di YouTube, ma la società afferma che limitare la loro copertura fornirà un’esperienza migliore ai propri utenti.
Ma c’è anche di peggio: il caso Pizzagate
Nel 2016, la teoria della cospirazione che divenne nota come “Pizzagate” – una famosa notizia falsa di destra che asseriva che il ristorante Comet Ping Pong era legato a un anello sessuale infantile che coinvolge la campagna di Hillary Clinton – motivò un uomo armato a sparare all’interno del ristorante.
Nel comunicato si legge:
Riteniamo che questo cambiamento rappresenti un equilibrio tra il mantenimento di una piattaforma per la libertà di parola e il rispetto delle nostre responsabilità verso gli utenti.
Tuttavia i video non verranno necessariamente rimossi
La società ha anche spiegato che questi video non verranno rimossi interamente dalla piattaforma e potrebbero ancora apparire nei risultati di ricerca o nei consigli se un utente continua a seguire determinati canali. YouTube ha anche fornito alcune informazioni su come funziona il suo modello di raccomandazione, che coinvolge “valutatori ed esperti umani provenienti da tutti gli Stati Uniti” che esaminano i video e utilizzano quel feedback per addestrare i suoi sistemi machine learning.
Un piccolo passo verso la responsabilità sociale
YouTube, Facebook e altre piattaforme di social media hanno affrontato un crescente malcontento negli ultimi anni per il loro ruolo nell’ospitare e amplificare la propaganda politica e i contenuti offensivi che conducono gli utenti verso angoli bui di Internet.
È solo un altro passo avanti in un processo in corso ma riflette il nostro impegno e il senso di responsabilità nel migliorare l’esperienza su YouTube.