Los videos falsos perfectos serán reconocidos por inteligencia artificial
Los videos falsos perfectos serán reconocidos por inteligencia artificial

Video: Los videos falsos perfectos serán reconocidos por inteligencia artificial

Video: Los videos falsos perfectos serán reconocidos por inteligencia artificial
Video: LA HABITACIÓN DE FUEGO con PAULA RAMOS "UN P3N3 DE 23CM CASI ME MATA😲😲😲" - YouTube 2024, Abril
Anonim
Comienza el estreno de la ópera sobre el envenenamiento de Litvinenko en Inglaterra
Comienza el estreno de la ópera sobre el envenenamiento de Litvinenko en Inglaterra

Hace un año, Manish Agrawala de Stanford ayudó a desarrollar la tecnología de sincronización de labios que permitió a los editores de video alterar las palabras de los oradores de manera casi imperceptible. La herramienta podría insertar fácilmente palabras que una persona nunca dijo, incluso en medio de una oración, o borrar palabras que dijo. Todo parecerá realista a simple vista e incluso para muchos sistemas informáticos.

Esta herramienta ha hecho que sea mucho más fácil corregir errores sin volver a grabar escenas enteras, y también ha adaptado programas de televisión o películas para diferentes audiencias en diferentes lugares. Pero esta tecnología también ha creado nuevas e inquietantes oportunidades para videos falsos difíciles de encontrar, con la clara intención de distorsionar la verdad. Por ejemplo, un video republicano reciente utilizó una técnica más tosca para una entrevista con Joe Biden.

Este verano, Agrawala y sus colegas de Stanford y UC Berkeley dieron a conocer un enfoque basado en inteligencia artificial para la tecnología de sincronización de labios. El nuevo programa detecta con precisión más del 80 por ciento de las falsificaciones, reconociendo las discrepancias más pequeñas entre los sonidos de las personas y la forma de sus bocas.

Pero Agrawala, director del Stanford Institute for Media Innovation y profesor de informática en Forest Baskett, que también está afiliado al Stanford Institute for Human-Centered Artificial Intelligence, advierte que no existe una solución técnica a largo plazo para las falsificaciones profundas.

¿Cómo funcionan las falsificaciones?

Existen razones legítimas para la manipulación de videos. Por ejemplo, cualquier persona que filme un programa de televisión, una película o un comercial de ficción puede ahorrar tiempo y dinero si utiliza herramientas digitales para corregir errores o personalizar guiones.

El problema surge cuando estas herramientas se utilizan deliberadamente para difundir información falsa. Y muchas de las técnicas son invisibles para el espectador medio.

Muchos videos falsos profundos se basan en intercambios de rostros, superponiendo literalmente el rostro de una persona al video de otra persona. Pero si bien las herramientas de cambio de rostro pueden ser atractivas, son relativamente toscas y, por lo general, dejan artefactos digitales o visuales que una computadora puede detectar.

Por otro lado, las tecnologías de sincronización de labios son menos visibles y, por lo tanto, más difíciles de detectar. Manipulan una porción mucho más pequeña de la imagen y luego sintetizan los movimientos de los labios que coinciden exactamente con cómo se movería la boca de una persona si dijera ciertas palabras. Según Agrawal, dadas suficientes muestras de la imagen y la voz de una persona, un productor falso puede hacer que una persona "diga" cualquier cosa.

Detección de falsificaciones

Preocupado por el uso poco ético de dicha tecnología, Agrawala trabajó con Ohad Freed, un estudiante de doctorado en Stanford, para desarrollar una herramienta de detección; Hani Farid, profesor de la Facultad de Información de Berkeley de la Universidad de California; y Shruti Agarwal, estudiante de doctorado en Berkeley.

Al principio, los investigadores experimentaron con una técnica puramente manual en la que los observadores estudiaron secuencias de video. Funcionó bien, pero en la práctica requería mucho trabajo y mucho tiempo.

Luego, los investigadores probaron una red neuronal basada en inteligencia artificial que sería mucho más rápida para hacer el mismo análisis después de entrenar en video con el ex presidente Barack Obama. La red neuronal detectó más del 90 por ciento de la sincronización de labios del propio Obama, aunque la precisión para otros hablantes se redujo a alrededor del 81 por ciento.

Una verdadera prueba de la verdad

Los investigadores dicen que su enfoque es solo parte del juego del gato y el ratón. A medida que mejoren las técnicas de falsificación profunda, dejarán aún menos claves.

En última instancia, dice Agrawala, el problema real no es tanto luchar contra los videos profundamente falsos como luchar contra la desinformación. De hecho, señala, gran parte de la información errónea surge de distorsionar el significado de lo que la gente realmente dijo.

“Para reducir la desinformación, necesitamos mejorar la alfabetización mediática y desarrollar sistemas de rendición de cuentas”, dice. "Esto puede significar leyes que prohíban la producción deliberada de información errónea y las consecuencias de violarlas, así como mecanismos para eliminar el daño resultante".

Recomendado: