El troll no se destruye, se transforma: así se adaptan los perfiles falsos de las elecciones de 2016 a 2020
The Conversation
Aquellos trolls de Twitter patrocinados por Rusia quese aprovecharon sin piedad de las redes socialespara influir en los resultados de las elecciones presidenciales de Estados Unidos en 2016no dejaron de funcionaren cuanto Trump fue elegido como presidente.
Incluso después de las elecciones se mantuvieron en activo, adaptando sus métodos. Empezaron aincluir el uso de imágenes, entre las cuales se encontrabanmemes facilonescomo el de Hillary Clinton que parecía huir de la policía, para propagar sus puntos de vista. Como parte de nuestra investigación para entender cómo funcionan dichos trolls, analizamos1,8 millones de imágenes publicadas en Twitter por 3.600 cuentasque han sido identificadas por Twitter como parte de las campañas de desinformación patrocinadas por el gobierno ruso, desde antes de las elecciones de 2016 hasta 2018, cuando Twitter cerró las cuentas.
Aunque centramos nuestro estudio en dichas cuentas en concreto, es razonable suponer que existen otras cuentas diferentes y que siguen en activo. Hasta su bloqueo por parte de Twitter, las cuentas que analizamos compartían imágenes sobre eventos en Rusia, Ucrania y los EE.UU., incluyendo eventos políticos divisorios como la marcha ultraderechista"Unite the Right"de agosto de 2017 en Virginia. Las imágenes compartidas en Twitter por los trolls apoyados por el gobierno ruso tambiénaparecieron en otras redes sociales, como Reddit, 4chan y Gab.
Cambiando el enfoque
Los contenidos de las publicaciones fueron cambiando con el tiempo. Analizamos las imágenes en sí mismas con el fin de identificar los temas de los mensajes e incluso las representaciones de figuras públicas o de lugares específicos. En 2014, la mayoría de estas cuentas empezaron a publicar imágenes relacionadas conRusia y Ucrania, pero gradualmente pasaron a publicar imágenes sobre la vida política de los Estados Unidos, incluyendo material sobreDonald Trump, Hillary Clinton y Barack Obama.
Concuerda con algunos de nuestrosanálisis previos sobre los mensajes de texto de dichas cuentasque también mostraban un cambio de enfoque desde la política exterior rusa a los asuntos internos de los Estados Unidos.
Difundiendo sus ideas y las de terceros
Descubrimos que las cuentas respaldadas por Rusia estaban creando un nuevo tipo de propaganda y amplificando los mensajes creados por terceros. Alrededor del30% de las imágenes que habían publicado en Twitter no habían aparecido en otras redes socialeso en otras partes de Twitter y por lo tanto es probable que hayan sido creadas por los rusos que están detrás de las cuentas. El 70% restante de los contenidos ya había aparecido en otros lugares.
Analizando la forma en la que las publicaciones se propagan en diferentes redes socialesa lo largo del tiempopudimos estimar cuánta influencia tuvieron dichas cuentas en las discusiones en línea de otras redes sociales como Reddit y Gab.
Descubrimos que la capacidad de las cuentas a la hora de difundir imágenes políticas variaba según la red social. Por ejemplo, los tweets patrocinados por Rusia sobre ambos partidos políticos, republicanos y demócratas, tenían la misma capacidad de influencia en Twitter, pero en Gab se trataba fundamentalmente de la difusión de imágenes de políticos demócratas. EnReddit, por el contrario, las cuentas de los trolls eran más influyentes en ladifusión de imágenes de políticos republicanos.
Mirando al futuro
Esta investigación es un primer paso para entender de qué manera las campañas de desinformación hacen uso de imágenes. Nuestra investigación proporciona una mirada al pasado, pero según lo que hemos aprendido damos por hecho que estos “soldados de la información"van a crear más contenido propio y aprovecharán el material creado por tercerospara mejorar sus estrategias y su efectividad.
A medida que se acercan laselecciones presidenciales de 2020, los estadounidenses deberían ser conscientes de que tanto los rusos como otros grupos continúan con sus esfuerzos cada vez más sofisticados para engañar, confundir y propagar inestabilidad social entre la población.
Autores:Gianluca Stringhini, profesor auxiliar de Ingeniería Eléctrica e Informática por la Universidad de Boston; Savvas Zannettou, investigador postdoctoral por el Instituto Max Planck para la Ciencias Sociales.
Este artículo ha sido publicado originalmente enThe Conversation. Puedes leer el artículo originalaquí.
Traducido por Silvestre Urbón.