En la medida que el mundo digital evoluciona, las técnicas para crear contenido sintético a través de las Redes Generativas Antagónicas (GANs) han proliferado, dando lugar a la aparición de imágenes y videos falsificados con un alto grado de realismo. Esta sofisticación tecnológica plantea grandes desafíos sobre la autenticidad de los medios, llevándonos a cuestionar el origen de los conjuntos de datos empleados en su creación, como CelebA y FFHQ, al tiempo que abre debates sobre el cumplimiento legal y los riesgos éticos que conlleva el uso no autorizado de información personal.
Un equipo de investigación de la Universidad de Catania ha desarrollado un marco forense innovador para la atribución del conjunto de datos de origen en medios sintéticos generados por GANs. Este sistema combina transformadas espectrales (Fourier y DCT), métricas de distribución de color e identificadores de características locales como SIFT para extraer firmas estadísticas incrustadas en el contenido sintético. Estas características permiten clasificar entre imágenes reales y sintéticas con una precisión del 98-99%, y atribuirlas a sus conjuntos de datos de origen con alta precisión.
Estos métodos forenses destacan por utilizar los rasgos del dominio de la frecuencia para identificar patrones específicos del conjunto de datos, tales como artefactos de remuestreo y regularidades espectrales, los cuales no son detectables mediante técnicas tradicionales de detección de irregularidades físicas o metadata.
Uno de los grandes logros de este nuevo enfoque radica en su capacidad de mejorar la trazabilidad y gobernanza de los modelos generativos. Esto es crucial para abordar disputas de propiedad intelectual, usos no autorizados de imágenes personales y para garantizar el cumplimiento regulatorio dentro de marcos como el GDPR y la ley AB 602 de California.
Más allá de los retos técnicos, el uso de esta tecnología de atribución tiene implicaciones legales y éticas fundamentales. Por ejemplo, la capacidad para determinar si un deepfake fue creado utilizando un conjunto de datos público o privado podría ser determinante en juicios sobre el uso no autorizado de datos personales. Con la promulgación de nuevas leyes, como el AI Act de la Unión Europea, se busca crear un entorno de transparencia, obligando a los proveedores a divulgar cuando el contenido ha sido generado por IA, lo que fortalece la protección de los datos biométricos y personales.
Ante el avance incesante de las capacidades de los modelos generativos, la integración de técnicas de aprendizaje profundo y análisis estadísticos fiables amplía las fronteras de la investigación forense digital, propiciando herramientas valiosas para moderar contenido y solventar litigios de propiedad intelectual, contribuyendo así a la creación de un ecosistema digital más seguro y ético.