Facebook toma medidas contra los deepfakes: los borrará de la red social, aunque obviará la parodia y la sátira
Jose García
Los deepfakes prometen seruno de los grandes retos de las plataformas sociales en 2020. En el último año hemos asistido al nacimiento, o más bien, popularización de esta tecnología que permitemanipular un clip de vídeo o audiopara hacer que, por ejemplo, una persona de relevancia mundial comoBarack ObamaoMark Zuckerbergaparezca “diciendo cosas” que no han dicho.
Supone un reto porque los deepfakes son cada vez más reales ydistinguirlos de un vídeo real puede ser complicado. Ante este desafío, empresas comoFacebookoAdobese han puesto manos a la obra, y ahora la empresa de Zuckerberg ha confirmadocómo actuará ante este tipo de contenido: borrándolo, siempre y cuando se cumplan ciertas condiciones.
Si es deepfake, fuera
SegúnexplicaMonika Bickert, vicepresidenta de gestión de políticas globales de Facebook, “las manipulaciones se pueden hacer a través de tecnologías simples como Photoshop o mediante herramientas sofisticadas que utilizan inteligencia artificial o técnicas de “aprendizaje profundo” para crear videos que distorsionan la realidad, generalmente llamados ‘deepfakes’”. Según Bickert, “si bien estos videos aún son raros en Internet,presentan un significativo desafíopara nuestra industria y sociedad a medida que aumenta su uso”.
Desde Facebook afirman quesu enfoquepara combatir los deepfakes consta de varios protagonistas, desde la academia y el gobierno hasta la industria, así como “más de 50 expertos mundiales con antecedentes técnicos, políticos, de medios, legales, cívicos y académicos para informar el desarrollo de nuestras políticas y mejorar la ciencia de la detección de medios manipulados”. ¿Y cómo actuará la empresa ante la detección de un deepfake? Borrándolo cuando cumpla estos criterios:
En otras palabras, si el vídeo o audio ha sido generado por una inteligencia artificial o ha sido editado de forma que puede llevar a engaño a una “persona promedio”, la empresa lo retirará de la plataforma. Sin embargo,estas medidas no se extiende al contenido parodio o satírico, como tampoco a aquellos vídeos que hayan sido editados para omitir palabras o cambiar el orden de las mismas (algo que, todo sea dicho, podría usarse para crear contenido manipulado). Si el contenido incumple las normas de la comunidad, sea falso o no, se eliminará de Facebook.
Ahora bien, la empresano se deshará por completo de las noticias falsas, otro campo que no ha estadoexento de polémica. Facebook se mantiene en sus trece, afirmando que si uno de sus 50 socios de verificación de datos detecta una noticia falsa o parcialmente falsareducirá “significativamente su distribución en News Feedy lo rechazará si se está ejecutando como un anuncio”. Asimismo, las personas que lo vayan a compartir o que lo hayan compartidorecibirán advertenciasalertando de que el contenido es falso.
Recientemente, Facebook, junto a varios actores como Microsoft y diversas universidades, lanzó elDeepfake Detection Challenge, undesafíocuyo objetivo es “producir tecnología que todos puedan usar para detectar mejor cuándo se ha usado inteligencia artificial para alterar un vídeo para engañar al espectador”. Para subvencionarlo, Facebook está dedicando 10 millones de dólares.
Un ejemplo más radical seríaChina. Desde el 1 de enero,los deepfakes son ilegales y distribuirlos es un delito penalque llevará a los usuarios a prisión. Las empresas sí podrán distribuir este contenido siempre y cuando se indique “claramente” cuándo dicho contenido ha sido creado usando inteligencia artificial. En una línea parecida estáCalifornia, que prohíbe difundir vídeos manipulados para desacreditar a candidatos políticos durante los 60 días previos a unas elecciones.
Más información |Facebook