
Científicos descubren un asombroso método para detectar deepfakes mediante la inserción de códigos invisibles en fuentes de luz comunes.
Convirtiendo el ruido de la luz en un mecanismo de detección.
Investigadores de la Universidad de Cornell han creado un novedoso método para detectar videos manipulados o generados por inteligencia artificial, mediante la incorporación de señales codificadas en las fuentes de luz. Esta técnica, denominada iluminación codificada por ruido, es capaz de ocultar información en fluctuaciones de luz que a simple vista parecen aleatorias.
Cada marca de agua incrustada contiene una versión de baja fidelidad y con sello de tiempo de la escena original, presentada bajo un ligero cambio de iluminación. Cuando se produce manipulación, las áreas alteradas no coinciden con estas versiones codificadas, lo que permite identificar las modificaciones.
El sistema puede funcionar a través de un software para pantallas de computadora o mediante la adición de un pequeño chip a lámparas estándar. Debido a que los datos incrustados se presentan como ruido, su detección sin la llave de decodificación es extremadamente complicada. Este enfoque utiliza la asimetría de información, garantizando que quienes intenten crear deepfakes no tengan acceso a los datos únicos necesarios para producir falsificaciones convincentes.
Los investigadores probaron su método frente a diversas técnicas de manipulación, como deepfakes, composición y cambios de velocidad de reproducción, evaluándolo bajo condiciones ambientales variadas como diferentes niveles de luz, tipos de compresión de video y movimientos de cámara en entornos tanto interiores como exteriores. En todas estas situaciones, la técnica de luz codificada mantuvo su efectividad, incluso cuando las alteraciones eran demasiado sutiles para que el ojo humano las percibiera.
Incluso si un forjador lograra aprender el método de decodificación, necesitaría replicar múltiples versiones del video que coincidan con los códigos. Cada uno de estos tendría que alinearse con los patrones de luz ocultos, lo cual incrementa notablemente la complejidad de crear videos falsos indetectables. Esta investigación aborda un problema cada vez más crítico en la autenticación de medios digitales, ya que la disponibilidad de herramientas de edición sofisticadas ha llevado a que las personas ya no puedan asumir que un video representa la realidad de manera automática.
Si bien métodos como los checksums pueden identificar cambios en los archivos, no son capaces de diferenciar entre la compresión inofensiva y la manipulación deliberada. Algunas tecnologías de marcas de agua requieren control sobre el equipo de grabación o el material original, lo que las hace poco prácticas para su uso generalizado. La iluminación codificada por ruido podría integrarse en suites de seguridad para proteger transmisiones de video sensibles, además de ayudar a reducir los riesgos de robo de identidad al resguardar registros de video personales u oficiales de manipulaciones indetectadas.
A pesar de que el equipo de Cornell reconoció la sólida protección que ofrece su trabajo, también enfatizó que el desafío más amplio de detección de deepfakes seguirá existiendo a medida que evolucionen las herramientas de manipulación.