¿Se pueden detectar los deepfakes?

Con suficientes imágenes de origen, no es tan difícil de hacer Jordan Peele en el presidente Obama, Jimmy Fallon en John Oliver, o Jon Snow en un portavoz para los fanáticos decepcionados de Game of Thrones. Al principio, captar deepfakes no era demasiado difícil, incluso los mejores tenían obsequios visuales como desenfoque, distorsión y extrañas diferencias faciales que los hacían parecer simplemente «fuera de lugar».

Sin embargo, es un juego del gato y el ratón, y parece que tan pronto como aprendemos un método para detectar deepfakes, la próxima generación corrige la falla. Para luchar contra eso, ¿hay alguna solución confiable para descubrir qué videos están tratando de engañarnos?

Pistas visuales

Los artefactos no son solo cosas que Indiana Jones pone en museos: También son pequeñas aberraciones que quedan después de manipular una imagen o un video.. En los primeros deepfakes, estos a menudo se podían captar con el ojo humano y los deepfakes malos aún pueden tener algunas señales de advertencia, como bordes borrosos, una cara demasiado suavizada, cejas dobles, fallas o una sensación generalmente «antinatural» de cómo encaja la cara. .

Deepfake Detection Faceforensics refinado

Sin embargo, en su mayor parte, las técnicas ahora han mejorado hasta el punto en que estos artefactos solo son visibles para otros algoritmos que combinan los datos de video y examinan las cosas a nivel de píxeles. Algunos de ellos pueden ser bastante creativos, como una técnica que comprueba si la dirección de la nariz coincide con la dirección de la cara. La diferencia es demasiado sutil para que los humanos la perciban, pero las máquinas resultan ser bastante buenas en eso.

Pistas biométricas

Ejemplo 2 de Faceforensics de detección de deepfake

Durante un tiempo pareció que la clave para desenmascarar los deepfakes era su falta de patrones de parpadeo naturales gracias a la relativa escasez de imágenes fuente con los ojos cerrados. Sin embargo, no pasó mucho tiempo para que la próxima generación de tecnología deepfake incorporara un mejor parpadeo, lo que redujo rápidamente la efectividad de esa técnica.

Ejemplo 3 de Faceforensics de detección de deepfake

Sin embargo, otros indicadores biométricos aún no se han descifrado por completo, como las peculiaridades individuales que los algoritmos no pueden automatizar fácilmente en un deepfake porque requieren cierta comprensión contextual del lenguaje que se usa. Pequeños hábitos como parpadear rápidamente cuando estás sorprendido o levantar las cejas cuando haces una pregunta, pueden ser recogidos y utilizados por un deepfake, pero no necesariamente en el momento adecuado, ya que no pueden (todavía) determinar automáticamente cuándo hacerlo. desplegar esos movimientos.

En relación :  Los 5 mejores juegos como GTA 5 con increíbles mapas de mundo abierto

La inteligencia artificial puede leer los latidos del corazón usando imágenes de video tiene muchas aplicaciones más allá de la detección de deepfake, pero buscar los movimientos periódicos y los cambios de color que indican la frecuencia cardíaca puede ayudar a identificar a los impostores generados por la IA. El indicio más obvio es cuando un deepfake no tiene ningún latido, pero los deepfakes a menudo tienen pulsos. Aun así, las irregularidades (como diferentes partes de la cara que muestran diferentes ritmos cardíacos) pueden ayudar a identificar un deepfake.

Proyectos de IA

Detección de Deepfake Faceforensics ++

Muchos grandes nombres están muy interesados ​​en resolver el problema de los deepfake. Facebook, Google, MIT, Oxford, Berkeley y muchas otras nuevas empresas e investigadores están abordando este problema mediante el entrenamiento de la inteligencia artificial para detectar videos falsos utilizando los métodos enumerados anteriormente, entre otros.

Conjunto de datos de Facebook de Deepfake Dection

Una cosa tanto Facebook y Google están trabajando en la creación de un conjunto de datos de videos de alta calidad de actores haciendo cosas, que luego utilizan para crear deepfakes. La IA entrenada en estos puede descubrir cuáles son los signos reveladores de los deepfakes y encargarse de detectarlos.

Por supuesto, esto solo funciona mientras los investigadores continúen generando deepfakes utilizando la tecnología más actualizada, lo que significa que siempre habrá un poco de retraso entre los nuevos trucos de deepfake que se descubren y estos algoritmos son capaces de detectarlos. Sin embargo, con un poco de suerte los experimentos que utilizan ratones reales para identificar deepfakes funcionará y nos dará una ventaja.

Autenticación

Deepfake Detection Ambervideo

Sin embargo, las tecnologías de detección no son la respuesta completa a los deepfakes, ya que probablemente nunca tendrán una tasa de éxito del 100%. Los deepfakes a los que se les ha invertido algo de tiempo y dinero probablemente podrían pasar muchas pruebas de rastreo y métodos de IA actuales. Y recordemos cómo funciona Internet: incluso si se detectan estas falsificaciones, es probable que algún subconjunto de personas las vuelva a circular y las crea.

Por eso también es importante tener algún tipo de mecanismo de verificación: alguna prueba de qué video es el original o algo que pueda indicar si un video ha sido modificado. Eso es lo que les gusta a las empresas Factom, Ámbarvideo, y Axioma lo están haciendo al codificar datos sobre videos en cadenas de bloques inmutables.

La idea básica detrás de muchos de estos proyectos es que los datos contenidos en un archivo de video o generados por una determinada cámara se pueden usar para generar una firma única que cambiará si se manipula el video. Eventualmente, los videos subidos a las redes sociales pueden incluir una opción para generar un código de autenticación que el cargador original podría registrar en una cadena de bloques para demostrar que eran los propietarios originales del video.

En relación :  Comparta enlaces de canciones y ofrezca a los usuarios la opción de escuchar en YouTube, iTunes, Spotify, Google Play Music o Deezer

Estas soluciones tienen su propio conjunto de problemas, por supuesto, como las codificaciones de video que cambian los datos en el archivo y alteran la firma sin que el contenido del video cambie realmente, o la edición de video legítima estropea la firma. Sin embargo, en situaciones de alto riesgo, como las transacciones comerciales en las que se utilizan imágenes para verificar la entrega u obtener el apoyo de los inversores, tener una capa de autenticación como esta podría ayudar a prevenir el fraude relacionado con deepfake.

¿Son los deepfakes más peligrosos que Photoshop?

En este punto, todos asumimos que las imágenes pueden no ser reales porque somos plenamente conscientes de que existe la tecnología para hacer que casi cualquier cosa parezca real en una imagen fija. Eventualmente, podemos comenzar a abordar los videos con el mismo tipo de escepticismo, ya que fingirlos se vuelve tan fácil y convincente como Photoshop hace actualmente la edición de imágenes. Sin embargo, incluso con la conciencia general, es fácil imaginar muchos incidentes de la vida real comenzando con un deepfake oportuno y de alta calidad en un futuro no muy lejano.

Créditos de imagen: Google / FaceForensics, IA de Facebook, Ámbarvideo