Suponiendo que los artefactos y los elementos no naturales no existan en los medios en cuestión y que los medios sean indistinguibles para el ojo humano, la única forma de hacerlo es rastrear la fuente de las imágenes.
Se puede establecer una analogía con el ataque DoS (denegación de servicio), donde se envía un número absurdo de solicitudes desde una única IP a un solo servidor, lo que provoca un bloqueo: una solución común es un honeypot, donde una gran cantidad de solicitudes de uno IP se redirige a un servidor señuelo donde, incluso si falla, el tiempo de actividad no se ve comprometido. Se han realizado algunas investigaciones en estas líneas donde este documento habló sobre la verificación de la firma digital de una imagen o en esta donde propusieron la detección de imágenes alteradas y la identificación de la cámara fuente.
Una vez que se remonta a una fuente, si un número absurdo de imágenes potencialmente falsas proviene de una fuente singular, debe ser cuestionado.
El temor común surge cuando estamos lidiando con algo, sobre la base de la analogía, como un ataque DDoS (denegación de servicio distribuida) donde cada solicitud falsa proviene de una fuente distribuida: Network Security ha encontrado formas de lidiar con esto, pero la seguridad y la detección de fraudes en términos de IA simplemente no está tan establecida.
Esencialmente para un medio artificial bien pensado para un propósito malicioso específico, hoy en día es bastante difícil de atrapar, pero actualmente se está trabajando en la seguridad de la IA. Si planea usar medios artificiales con fines maliciosos, diría que es el mejor momento.
Esta seguridad ha sido una preocupación desde hace un tiempo. Un artículo escrito por un científico de datos cita
Deepfakes ya se han utilizado para tratar de hostigar y humillar a las mujeres a través de videos porno falsos. El término en realidad proviene del nombre de usuario de un usuario de Reddit que estaba creando estos videos mediante la creación de redes adversas generativas (GAN) usando TensorFlow. Ahora, los funcionarios de inteligencia están hablando de la posibilidad de que Vladimir Putin use videos falsos para influir en las elecciones presidenciales de 2020. Se están realizando más investigaciones sobre las falsificaciones profundas como una amenaza para la democracia y la seguridad nacional, así como sobre cómo detectarlas.
Nota: no tengo ni idea de la seguridad de la red, todo mi conocimiento proviene de una conversación con un amigo, y pensé que sería una buena analogía para usar aquí. ¡Perdone cualquier error en la analogía y corríjalo si es posible!
Las técnicas que menciona utilizan GAN. La idea clave de las GAN es que tiene un generador y un discriminador. El generador genera nuevo contenido, el discriminador tiene que decir si el contenido proviene de los datos reales o si se generó.
El discriminador es mucho más poderoso. No debería ser demasiado difícil entrenar a un discriminador para detectar falsificaciones. La capacitación de un modelo que es capaz de identificar la manipulación y la comprensión de esto es una prueba de manipulación que es más difícil. Es imposible obtener una prueba de que algo no está manipulado.
Acerca de la pregunta de cómo lidiar con las imágenes retocadas: observa las diferencias en los niveles de compresión de la imagen. La palabra clave a buscar es forense de imagen: http://fotoforensics.com/tutorial-estq.php
fuente