Jose García
Los deepfakes planteantodo un reto para las plataformas sociales. Este tipo de contenido manipulado, consistente en editar un vídeo, audio o imagen mediante inteligencia artificial para mostrar, por ejemplo, a una persona de relevancia pública diciendo algo que realmente no ha dicho, supone todo un desafío para unas plataformas en los queel contenido viral tiende a expandirse rápidamentey, en según qué contextos, puede llevar a malentendidos.
Así, y trasel reciente anuncio de Facebooksobre los deepfakes, nos hemos preguntado: ¿Qué políticas tienen las principales plataformas sociales con respecto al contenido manipulado con inteligencia artificial? Para salir de dudas, hemos revisado lascondiciones de Facebook, Instagram, LinkedIn y Twittery, además, repasado qué acciones están tomando otros actores del mundo tecnológico para ayudar a combatirlos.
Empezamos por la red social más popular en Occidente: Facebook. Monika Bickert, vicepresidenta de gestión de políticas globales de Facebook,explicóen el blog corporativo de la compañía que “hay personas que se involucran en la manipulación de los medios para engañar” y que, “si bien estos vídeos aún son raros en Internet”, presentan un “significativo desafíopara nuestra industria y sociedad a medida que aumenta su uso”.
Desde la compañía han explicado que, tras haber consultado a “más de 50 expertos a nivel mundial”, han optado por una política sencilla: eliminar el contenido falsificado siempre y cuando se cumplanestos dos requisitos:
“Ha sido editado o sintetizado, más allá de los ajustes de claridad y claridad, de una manera que no quede claro para una persona promedio y que probablemente sirvan para engañarle y que piense que el protagonista del vídeo dijo palabras que en realidad no dijo.
Si esproducto de una inteligencia artificial o aprendizaje automático, fusionando, reemplazando o superponiendo contenido en un vídeo para que parezca que es auténtico.”
Ahora bien, hay excepciones. No se borrarán aquellos vídeos manipulados con fines satíricos, paródicos y aquellos que hayan sido editados para omitir palabras o cambiar su orden. Es decir, que, de una forma u otra, sigue siendo posible publicar contenido manipulado.Hay otra salvedad, y es queel contenido publicado por los políticos no será censurado, aunque publiquen deepfakes sobre sus rivales.
¿El motivo? Elinterés periodístico. Según Andrea Vallone, portavoz de Facebook, la plataforma aplica “los mismos estándares que a otros usuarios cuando se trata de medios manipulados” aunque “si el contenido reviste algún interés periodístico, aunque viole la norma, evaluaremos caso por caso si debe permitirse su permanencia en la plataforma”.Mashablepreguntó a Vallone que ocurriría si un contenido de interés periodístico llegase a calificarse como manipulado (es decir, que cumpliese con los dos criterios expuestos arriba) y no hubo respuesta. El ejemplo más claro de esta excepción es elvídeo de Nancy Pelosi.
Finalmente, desde Facebook aclaran que “de acuerdo con nuestras políticas existentes, el audio, las fotos o los videos, ya sean falsos o no, se eliminarán de Facebook si violan cualquiera de nuestras otrasnormas de la comunidad,incluidas las que rigen la desnudez, la violencia gráfica, la supresión de votantes y el discurso de odio”.
En supublicación, Monika Bickert se refiere sola y exclusivamente a Facebook. Instagram no se menciona de ninguna de las maneras ya que, de hecho, tienen diferentes normas comunitarias aunque sean de la misma compañía, FACEBOOK, en mayúsculas.La política de Instagram contra los deepfakes es tan sencilla como que no hay política contra los deepfakes, al menos por ahora.
Seguramente recordemos cómo en junio de 2019apareció en Instagram un deepfake de Mark Zuckerbergycómo la plataforma optó por dejarlo publicado(aunque la CBS pidió a Facebook que lo retirase porque el vídeo contenía su marca comercial). Por aquellos entonces, un portavoz de la empresa dijo aThe Vergeque “trataremos este contenido de la misma manera que tratamos toda la información errónea en Instagram” y que “si los verificadores de hechos de terceros lo marcan como falso, lo filtraremos de las superficies de recomendación de Instagram como Explore y páginas hashtag”.La misma política que las fake news.
Poco más tarde, Adam Mosseri, CEO de Instagram, dio unaentrevista a la CBSy explicó que “no tenemos una política contra los deepfakes actualmente” y que “estamos intentado evaluar si quisiéramos hacer eso y, de ser así, cómo definiríamos los deepfakes”. Según Mosseri:
“Necesitamos tener principios definidos y debemos ser transparentes sobre esos principios […] En este momento, tratamos de equilibrar la seguridad y el diálogo, y ese equilibrio es muy, muy complicado. En este momento, lo más importante en lo que debemos concentrarnos es en llegar al contenido más rápido. Una vez que podamos hacer eso, podremos debatir si eliminarlo cuando lo encontremos”.
El pasado mes de diciembre, Instagram explicócómo combatirá la información falsa en Instagramy, de paso, anunció la expansión global del programa de verificación de datos. La política es similar a Facebook, en tanto en cuanto “si un verificador de información externo ha calificado contenido como falso o parcialmente falso, reduciremos su distribución; para ello,lo eliminaremos de la sección “Explorar” y de las páginas de hashtags. Además, se etiquetará para que las personas puedan decidir por ellas mismas lo que leer y compartir, y en lo que confiar. Si se aplican estas etiquetas, se mostrarán a todas las personas que vean el contenido en todo el mundo, en las noticias, el perfil, las historias y los mensajes directos”.
En la línea de Instagram está Twitter. Por el momento no tiene una política referente a los deepfakes, sino queestá pidiendo a los usuarios su opiniónpara “dar forma a nuestro acercamiento al contenido sintético y manipulado”. Esto, según Del Harvey, VP de Seguridad y Confianza de Twitter, responde a que quieren quesus reglas “reflejen la voz de las personas que usan Twitter”.
Twitter no tiene una definición exacta para contenido manipulado o sintético, pero la primera aproximación es la siguiente:
“Proponemos definir medios sintéticos y manipulados como cualquier foto, audio o video que haya sido alterado o fabricado significativamente de una manera que pretenda engañar a las personas o cambiar su significado original”.
Harvey expone también “un borrador” de lo que haráncuando detecten medios sintéticos y manipuladosque “intencionalmente intenten engañar o confundir a las personas”. Según Harvey, Twitter puede:
Destaca además que “si un Tweet que incluye medios sintéticos o manipulados es engañoso y podría amenazar la seguridad física de alguien o provocar otros daños graves, podemos eliminarlo”. Sin embargo, se trata de un borrador y por el momentono hay una política firme. Los usuarios pudieron dar su opinión hasta el 27 de noviembre de 2019 y desde Twitter dijeron que harán “un anuncio al menos 30 días antes de que la política entre en vigencia”.
Llegamos a LinkedIn, queno se ha salvado de los deepfakes. El caso más sonado es el deKatie Jones, un perfil falso que conectó con personas de la esfera política de Washington DC y que salió a la luz después de queAssociated Pressdescubriese algunos fallos en la foto de perfil que indicaban que había sido generada con IA (ya sabemos queesto es más que posible). Hay quien tachó este perfil de “espía” y, según William Evanina, director del Centro Nacional de Contrainteligencia y Seguridad de Estados Unidos, “los espías extranjeros usan habitualmente perfiles de redes sociales falsos para enfocarse en objetivos estadounidense”.
LinkedIn no tiene una política contra los deepfakes, aunque sí contra losperfiles falsos, que están terminantemente prohibidos. Cuenta con un sistema de “defensa automático” basado en inteligencia artificial y machine learning que durante la primera mitad de 2019tumbóel 98% de las cuentas falsas que se crearon. En total, en la primera mitad de 2019 se tomaron acciones contra 21,6 millones de cuentas falsas.
También haynormas de publicaciónen las que se recuerda “ser profesional y no publicar nada engañoso, fraudulento, obsceno, amenazante, odioso, difamatorio, discriminatorio o ilegal”, sin definir exactamente qué es “engañoso” y “fraudulento”. Linkedin puede “restringir, suspender o cancelar tu cuenta de LinkedIn y/o deshabilitar tus artículos por cualquier violación del ‘Acuerdo del usuario’” y deshabilitar “las cuentas encontradas utilizando contenido infractor”, perono se hace mención explícita a los deepfakes.
Qué están haciendo las plataformas tecnológicas para ayudar a combatirlos
Vistas las políticas con respecto a los deepfakes de las plataformas, procede echar un vistazo al sector tecnológico para verqué están haciendo empresas como Google, Facebook o Adobepara ayudar en la detección de deepfakes.
Facebook, por ejemplo,afirmaser capaz de detectar un deepfake en su plataforma si previamente ha tenido ocasión de analizar el archivo original, aunque no siempre tiene que darse ese caso. Para desarrollar herramientas de detección, Facebook (en colaboración con Microsoft y otras empresas) ha creadoundatasetde deepfakes y el concurso Deepfake Detection Challengepara animar a los desarrolladores. Ambas iniciativas están subvencionadas con 10 millones de dólares.
Algo similar está haciendoGoogle, que en colaboración con Jigsaw, ha lanzado un enorme conjunto de datos de deepfakes que se ha incorporado a la Universidad Técnica de Múnich y a la Universidad Federico II de Napóles y que se puede descargar desdeGitHub. Este conjunto de datos busca ofrecer una suerte debase de entrenamiento para los algoritmos de deteccióny ya ha sido descargado por más de 150 organizaciones de investigación e industriales.
Por último, cabe destacar el caso de Adobe. La empresa desarrolladora de Photoshopcuenta con una herramientaque, según Adobe, es capaz de detectar cuándo el rostro de una foto ha sido manipulado con su herramienta. Es posible gracias a una red neuronal convolucional que en las primeras pruebas obtuvo un99% de precisión.
Aún así, siempre que hay una solución se crea un sistema capaz de vulnerarla. Ragavan Thurairatnam, co-fundador de Dessa,lo explicó bastante bien: será “inevitable que los actores malintencionados se muevan mucho más rápido que aquellos que quieren detenerlos”.