Los humanos han estado alterando imágenes desde mucho antes de que los ordenadores estuvieran disponibles», señala Boris Radanović, representante del Centro para un Internet Seguro durante su intervención en una sesión de CONNECT University, el foro de la Comisión Europea para la exploración del futuro digital. El mismísimo Photoshop ni siquiera existía antes de 1988. Por otra parte, estamos continuamente expuestos a imágenes artificiales: basta con ir al cine. Entonces, ¿por qué nos asustamos tanto cuando esas escenas las genera una red neuronal? ¿Qué tienen los deepfakes que nos quita el sueño? «Esta tecnología puede aplicarse en vídeos corrientes y puede ser usada por cualquiera con una capacidad tecnológica semidecente y algo de tiempo libre».

Debemos buscar las posibles influencias positivas de la tecnología que tiene detrás

Y aún así, el temor no es nuevo. Radanović lo prueba citando un artículo del diario británico The Independent: «Con la llegada del software informático sofisticado y las imágenes digitales, casi cualquiera puede alterar la realidad. Y pueden no ser detectados jamás». La pieza, publicada en 1998, hablaba de Photoshop. Para Radanović, el problema no está tanto en los deepfakes como en el momento en que están ocurriendo, en pleno reinado de las noticias falsas y con poder de la desinformación ampliamente demostrado. «Vivimos tiempos en los que necesitamos no asumir nada y cuestionarlo todo».

Sin embargo, los deepfakes siguen siendo una tecnología relativamente joven. «Tenemos muchos retos por delante con este fenómeno. Debemos buscar las posibles influencias positivas de la tecnología que tiene detrás», afirma Radanović. El experto imagina la generación de un espectáculo de ballet con una coreografía largo tiempo olvidada o sencillamente un avance tecnológico genere nuevos empleos. En su opinión, lo que ocurre en el mundo digital no es sino un reflejo de lo que ocurre en el mundo real, nuestra imagen en el espejo. «Centrar nuestros esfuerzos en arreglar es espejo es literalmente tratar de arreglar el reflejo un problema que está en nuestra sociedad», señala. «Creo que muchos temores del mundo digital provienen de gente que no conoce su función».

  • Ni tanto ni tan poco

Otra prueba de que esta tecnología está en pañales, a pesar de su enorme impacto, la aportó Denis Teyssou, líder del Medialab de la agencia France Presse (AFP). «En la industria mediática hemos visto bastantes pocos ejemplos de deepfakes hasta ahora. La calidad no es suficiente todavía», asegura. «La mayoría de las falsificaciones que vemos en redes sociales son fotografías y vídeos del pasado. Están descontextualizadas, eso es todo. Esto pasa todo el tiempo porque para descontextualizar una imagen no necesitas ninguna habilidad. Basta hacer clic con el botón derecho para descargar una imagen y volver a subirla a las redes sociales».

Sin embargo, el departamento de Teyssou ya ha desarrollado una herramienta gratuita para contrarrestar la difusión de imágenes falsas. Se trata de InVID, un pluggin gratuito que permite identificar las imágenes originales empleadas para generar un deepfake. Para conseguirlo, InVID envía una serie de fotogramas clave a seis motores de búsqueda inversa diferentes. Con ello se pueden obtener imágenes similares que permiten determinar si el lugar, la fecha de grabación y la escena han sido objeto de tergiversaciones.

Aún hay muchas inconsistencias en los deepfakes

Por lo pronto, las tendencias más frecuentes en la generación de deepfakes se concentran sobre todo en el intercambio de caras y la síntesis de voz. «Lo que estamos intentando hacer es localizar el vídeo original, descubrir si hay una imagen o vídeo del pasado que es muy similar», explica Teyssou. Una vez localizados tales documentos gráficos, la mera comparación del original y el fake en potencia puede bastar para hacer el diagnóstico. «Aún hay muchas inconsistencias en los deepfakes, especialmente en el parpadeo de los ojos o el movimiento alrededor de la boca al hablar».

Otra medida de seguridad para cuando los deepfakes se pongan al día y alcancen la calidad necesaria para engañarnos sin remedio es tener cuidado con difundir vídeos nuestros en la web. Los deepfakes son, en definitiva, un resultado del aprendizaje automático, que funciona mejor cuanto más datos tiene para su entrenamiento. Sin embargo, evitar que nuestros vídeos caigan en malas manos no es tan sencillo como parece. «¿Deberíamos ser más cuidadosos? Sí. ¿Pero podemos serlo? La sociedad nos presiona para compartir mucho. Y si no compartes, no recibes reconocimiento», razona Radanović.

En general, el experto del Centro para un Internet Seguro cree que el conocimiento es clave para que la sociedad en general pueda defenderse de estos ataques. «Por desgracia, los artículos positivos sobre qué son los deepfakes y cómo puedes detectarlos no van a ser los más leídos. Los titulares de los periódicos se centrarán bien en el porno o bien en Obama diciendo algo irrespetuoso», señala. No es por fardar, pero nosotros te hemos contado cómo atrapar estas farsas, y en más de una ocasión (guiño, guiño).

MÁS INFORMACIÓN

Fuente: El País