YouTube y la radicalización: qué hay detrás de su algoritmo y los vídeos cada vez más extremistas

Irene Sierra

Una de las investigaciones presentadas en la ya concluida ACM Fact de Barcelona,señala a YouTubecomo responsable de laradicalización del contenidopresente en la plataforma. A pesar de que Google se desmarca por completo de tales conclusiones, este estudio coincide con algunos de los puntos denunciados el año pasado por ex trabajadores de la plataforma de vídeos.

El estudio.Tras visualizar y analizar un total de 72 millones de comentarios de 330.925 vídeos procedentes de 349 canales diferentes,los investigadoresde la Universidad de Lausana, Harvard y Minas Gerais afirman que hay “fuertes evidencias” de que YouTube esté fomentando una espiral de radicalización a través de las recomendaciones. Para comprobarlo, estudiaron el contenido generado por tres comunidades:intelectual dark web(sensacionalistas y promotores de lo políticamente incorrecto),alt-lite(corriente de derechas que huye del ultraconservadurismo) y alt-rigt (extrema derecha).

Esta elección sirvió a los investigadores para observar cómo ha ido variando el algoritmo frente a cada uno de los consumidores de las categorías anteriores, durante los últimos diez años.

Evidencias.En primer lugar, se dieron cuenta de que YouTube ante cualquier búsqueda sencilla, promocionaba “fácilmente” este tipo de vídeos. Posteriormente, los investigadores comprobaron que un 26% de los comentaristas presentes en las publicaciones de intelectual dark web y alt-lite, años después, aparecían también como comentaristas de los vídeos de alt right. Es decir, gracias a las recomendaciones, habían pasado a ser parte de la audiencia del contenidosituado aún más hacia la derecha.

Efecto Trump.La tendencia anterior ha ido en aumento desde que en noviembre de 2016 Donald Trump ganó las elecciones estadounidenses. Según el estudio, un 12% de los usuarios que comentaban vídeos de intelectual dark web o alt-lite en 2017, observó cómo el propio YouTube comenzó a recomendarles vídeos deextrema derechadurante los siguientes 18 meses.

¿A favor del sensacionalismo?Hace poco más de un año,Bloomberg publicó un reportajedonde los ex trabajadores de la plataforma denunciaban que YouTube promovía el contenido sensacionalista y conspiratorio con sus algoritmos. Tal y como relatan, esto sucedió cuando YouTube estaba trabajando por alcanzar las mil millones de horas de visionado diarias, una cifra que logró en 2017 y que les dio una lección de estrategia:cuánto más escandalososea el contenido, más interés genera y, por lo tanto, hace que los usuarios pasen más tiempo en la plataforma saltando de un vídeo a otro.

Respuesta.Tal y como recogeeldiario.es, YouTube rechaza la metodología,  las conclusiones y las evidencias aportadas por los investigadores universitarios. Sin embargo, para la plataforma el informe no es válido porque, entre otras cosas, no tiene en cuentalas modificacionesque han realizado en materia de discurso del odio y desinformación:

Imagen:Leon Bublitz/Unsplash

Newsletter de Xataka