Cómo aminorar el impacto de los deepfakes

Puesto que los deepfakes se han vuelto cada vez más comunes y convincentes, ¿cómo puedes proteger tu negocio?

Los deepfakes son un desafortunado producto de los recientes desarrollos en el campo de la inteligencia artificial, que asimismo enfrenta otros problemas. Las noticias falsas producto de los algoritmos de aprendizaje automático han ganado mucha atención en años recientes. La charla de Alyssa Miller en la conferencia RSA de 2020, titulada Hemos perdido la realidad,  proporciona algunas reflexiones sobre por qué es momento de considerar los deepfakes como una amenaza (sin contar el riesgo durante las elecciones presidenciales) y qué puede hacer tu empresa para aminorar su impacto, si acaso se ve ataca de este modo.

 

Cómo se hacen los deepfakes

El método más común para crear un deepfake es utilizar un sistema llamado GAN, o red generativa antagónica. Los GAN se componen de dos redes neurales que antagonizan entre ellas. Con el fin de prepararlas, ambas redes se entrenan con imágenes verdaderas. Luego viene la parte antagónica, en la que una red genera imágenes (de ahí el nombre generativo) y la otra intenta determinar si la imagen es genuina o falsa (la segunda red se llama discriminadora.

Posteriormente, la red generativa conoce el resultado y aprende de él. Al mismo tiempo, la red discriminadora aprende cómo mejorar su desempeño. Con cada ciclo, ambas redes mejoran.

Adelantemos, por ejemplo, un millón de ciclos de entrenamiento: la red neural generativa ha aprendido cómo generar imágenes falsas que una red neural igualmente avanzada no puede distinguir de las verdaderas.

Este método es realmente útil en los muchos usos que se le puede dar, pues dependiendo de los datos preparatorios, la red generativa aprende a generar ciertos tipos de imágenes.

Por supuesto, para los deepfakes, el algoritmo se entrena con fotos reales de determinada gente, lo que da como resultado una red que puede generar un número infinito de fotos convincentes (pero falsas) de una persona para que pueda integrarse en un video. Los métodos similares pueden generar audio falso y es probable que los cibercriminales ya estén usando el audio deepfake.

 

Cuán convincentes se han vuelto los deepfakes

Los primeros videos deepfake lucían ridículos, pero la tecnología ha evolucionado lo suficiente en este punto para que dichos medios se hayan vuelto aterradoramente convincentes. Uno de los ejemplos más notables de deepfakes espantosamente convincentes de 2018 fue un Barack Obama donde hablaba de, bueno, deepfakes (además de un insulto adicional dirigido contra el actual presidente de los EE.UU.). A mediados de 2019, vimos un videoclip falso de Mark Zuckerberg donde se mostraba increíblemente honesto acerca del estado actual de la privacidad.

Para entender cuán buena se ha vuelto la tecnología, simplemente mira el video a continuación. El imitador Jim Meskimen creó este video en colaboración con el artista de deepfakes Sham00k. El primero fue responsable de las voces y el segundo usó los rostros de unas 20 celebridades en el video mediante el software de deepfakes. El resultado es realmente fascinante.

 

https://www.youtube.com/watch?v=5rPKeUXjEvE

 

De acuerdo con lo que Sham00k señala en la descripción de su video detrás de cámaras, “la creación del video completo necesitó cerca de 250 horas de trabajo, 1,200 horas de metraje, 300,000 imágenes y cerca de 1 terabyte de datos”. Dicho esto, hacer este video no fue poca cosa. Pero esta desinformación tan convincente puede ejercer un impacto potencialmente profundo en los mercados o, digamos, en las elecciones, lo cual hace que el proceso parezca aterradoramente fácil y barato.

Por esa razón, casi al mismo tiempo que dicho video se publicó, el estado de California prohibió los videos políticos de deepfake durante la época electoral. Sin embargo, sigue habiendo problemas. Para empezar, los videos deepfake en general son una forma de expresión, como la sátira política. Y la prohibición de California no precisamente protege la libertad de expresión.

El segundo problema es al mismo tiempo técnico y práctico: ¿cómo puedes distinguir realmente un video deepfake de uno verdadero?

 

Cómo detectar los deepfakes

El aprendizaje automático es toda una sensación con los científicos de todo el mundo, y el problema de los deepfakes luce tan interesante y desafiante que muchos de ellos se han apresurado a ofrecer soluciones. Por esta razón, muchos proyectos de investigación se han centrado en cómo utilizar análisis de imagen para detectar los deepfakes.

Por ejemplo, un artículo científico publicado en junio de 2018 describe cómo el análisis del parpadeo ocular puede ayudar a detectar los videos deepfake. El punto es que normalmente no existen muchas fotos de una persona parpadeando, así que puede que las redes neurales no tengan el suficiente material con el cual entrenarse. De hecho, al momento de la publicación del artículo, la gente en los deepfakes parpadeaba muy raramente y, pese a que las personas se les dificultaba identificar la anomalía, el análisis computarizado ayudó.

Dos artículos publicados en noviembre de 2018 sugerían buscar artefactos de distorsión facial y posturas de la cabeza irregulares. Otro artículo, publicado en 2019, describía una técnica sofisticada que analiza los movimientos y expresiones faciales que son características del patrón de habla de un individuo.

Sin embargo, como Miller precisa, es poco probable que esos métodos tengan éxito a largo plazo. Lo que en realidad hacen dichas investigaciones es proporcionar retroalimentación a los creadores de los deepfakes; esto les ayuda a mejorar sus redes neurales discriminadoras y, en consecuencia, pueden entrenar mejor sus redes generativas y perfeccionar aún más sus deepfakes.

 

El uso de las comunicaciones corporativas para aminorar las amenazas del deepfake

En vista de los problemas anteriores, ninguna solución de seguridad puramente tecnológica contra los deepfakes será eficaz en este momento. Pero existen otras opciones. A saber, puedes aminorar las amenazas mediante una comunicación eficaz. Tendrás que supervisar la información relacionada con tu empresa y estar listo para controlar la narrativa en caso de enfrentar un estallido de desinformación.

A continuación, quedan resumidas las recomendaciones de Alyssa Miller para preparar a tu empresa para hacer frente a la amenaza del deepfake, cuyos mismos métodos, por cierto, pueden ser útiles para manejar también otros tipos de reveses de relaciones públicas:

  • Reduce al mínimo los canales de comunicación empresarial;
  • Procura tener una distribución coherente de la información;
  • Desarrolla un plan de respuesta para la desinformación (trátalas como incidentes de seguridad);
  • Coordina una función centralizada de supervisión y elaboración de informes;
  • Fomenta la verificación de hechos del sector privado y la legislación responsable;
  • Supervisa el desarrollo de medidas correctivas de detección y prevención.
Consejos