¿Qué son los Deepfakes y por qué deben preocuparnos?

Paloma Recuero de los Santos    17 febrero, 2020

Se habla mucho de “fake news” o “deepfakes”, pero no todo el mundo tiene claro qué son, en qué se diferencian y cuáles son sus riesgos. En este post, os explicamos qué son los deepfakes y porqué es importante detectarlos.

El origen: las “fake news”

La difusión de noticias falsas o “fake news”, con el objeto de influir en nuestra conducta, no es algo nuevo. Su objetivo es engañar, manipular, desprestigiar o enaltecer una institución, obtener réditos económicos o políticos etc. En definitiva, manipulación y propaganda.

Lo que sí ha cambiado y mucho, gracias a las redes sociales, es su alcance y la velocidad a la que se propagan.  De hecho, las fake news tienen un 70% más de probabilidades de ser replicadas que las noticias veraces.

De las “fake news” a los “deep fakes”

Los últimos avances en aprendizaje profundo (deep learning) han permitido a las fake news ir más allá de falsos titulares o montajes fotográficos. Han evolucionado hacia algo más sofisticado, los “deep fakes” o vídeos falsos .  En realidad, su origen fue bastante inocente.

En 2017 unos investigadores de la Universidad de Washingon presentaron el proyecto Synthesizing Obama. El presidente Obama aparecía en un vídeo hablando a cámara en primer plano. Parecía un vídeo normal.

En realidad, era vídeo falso, generado por un algoritmo capaz de sincronizar sonidos con movimientos faciales de un personaje (parpadeo, arqueo de cejas, movimiento de labios).

Tricked by the fake Obama video?

Muy pronto, esta tecnología se usó para un objetivo bien distinto al original: crear vídeos falsos. Al principio muy burdos, como los vídeos pornográficos manipulados que superponían las caras de actrices famosas, como, Scarlett Johansson, sobre las de las actrices reales.  

En 2018, la empresa NVDIA hizo público otro proyecto en el que usaba GANs (redes generativas antagónicas) y una base de datos de fotos de famosos para crear imágenes realistas de “famosos” falsos.

A style-base generator architecture for Generative adversarial networks.

Iniciativas para combatirlas

Fuentes oficiales de la OTAN han mostrado su preocupación por que estas tecnologías se usen para “erosionar la confianza pública en nuestras democracias y en nuestra prensa libre”.

De hecho, una encuesta realizada en 2018 por el Eldman Trust Barometer asegura que sólo el 44% de los españoles confía en la información que recibe de los medios. Por ello, cada vez surgen más iniciativas para luchar contra esta amenaza.

La Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA), lleva invertido unos 68 millones de dólares en el programa MediFor para desarrollar tecnología de detección de deep fake.

Empresas como WhatsApp , Facebook o Microsoft, también han tomado cartas en el asunto. En enero de este año, WhatsApp redujo de 20 a 5 el número de remitentes a los que se les puede reenviar el mismo mensaje de una misma vez, para dificultar su difusión. Facebook, en colaboración con Microsoft y el MIT han decidido crear un dataset y convocar un concurso, el Deep Fake Detection Challenge cuyo objetivo es crear herramientas de código abierto que permitan identificar vídeos manipulados.

Sin embargo, ninguna de estas tecnologías servirá de nada si “queremos creer” lo que estamos viendo porque refuerza nuestros prejuicios. En Internet, cada uno busca su propia verdad, y muchas veces da igual saber si es fiable o no.

La única solución a este problema, pasa por el desarrollo del espíritu crítico y la educación.

Si Chico Marx levantara la cabeza, igual se replanteaba su famosa frase:

¿A quién va usted a creer, a mí o a sus propios ojos?”

Hermanos Marx
Hermanos Marx, wikimedia commons
Hermanos Marx

Para mantenerte al día con LUCA visita nuestra página web suscríbete a LUCA Data Speaks o síguenos en TwitterLinkedIn YouTube.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *