La UPC, en busca de mejorar el algoritmo para detectar imágenes falsas
En esta tribuna, Montserrat Rigall, periodista de RTVE, explica cómo la UPC (Universitat Politècnica de Catalunya) está trabajando en perfeccionar la detección de imágenes falsas mediante la mejora de un algoritmo efectivo, puesto que los existentes están arrojando resultados insatisfactorios.
A lo largo del proyecto IVERES hemos podido comprobar cómo algunos de los mecanismos de generación de imágenes falsas, basadas en algoritmos de difusión, son todavía bastante difíciles de detectar de forma automática. De ahí la importancia de perfeccionar la detección de imágenes falsas.
Existen muchas técnicas disponibles para cualquier usuario a través de webs y apps de generación de imagen como Dalle-2, Stable Difussion, Midjourney, Bing (Dalle-3) de Open AI utilizadas con mucha frecuencia para ilustrar noticias falsas.
Según varios expertos consultados de la Universitat Politècnica de Catalunya, estos algoritmos son bastante más recientes y, aunque existen algunas propuestas para la detección automática de este tipo de imágenes, “sus resultados no son todavía del todo satisfactorios”, asegura el ingeniero informático, Dr. Francesc Tarrés.
Nuevos algoritmos
Por ello, desde el grupo de expertos de la UPC, en Barcelona, están trabajando en la investigación y desarrollo de nuevos algoritmos. El objetivo es que éstos permitan la detección automática y fiable de este tipo de imágenes que habitualmente son generadas a partir de un texto que las define. Esta es actualmente la línea de trabajo sobre la que están dedicando la mayor parte del tiempo.
En el avance hacia una detección de imagen falsa se han volcado muchos intentos, más o menos, fallidos con una conclusión bastante unánime. Los expertos aseguran que si se degenera una imagen artificial y se vuelve a generar, obtendremos una imagen muy parecida a la original. En cambio, si degeneramos una imagen natural y la intentamos volver a generar mediante algoritmos de difusión, la imagen obtenida difiere de forma considerable de la de partida.
Discriminar imágenes naturales
El error en la reconstrucción permite, en cierta medida, discriminar las imágenes naturales de las artificiales. El error es grande cuando la imagen es natural y pequeño cuando se parte de una imagen generada mediante algoritmos de inteligencia artificial.
Esencialmente, esta es una idea en la que han estado trabajado diferentes laboratorios de investigación con resultados aceptables, aunque no totalmente satisfactorios. Los diferentes algoritmos proponen estrategias de degradación y generación diferentes.
Primera línea de investigación
En la primera línea, se ha desarrollado un sistema de monitorización de contenidos que facilita y automatiza la tarea de seguimiento de diferentes canales sospechosos de la difusión de noticias falsas a nivel internacional.
Se ha desarrollado un sistema de monitorización de contenidos que facilita y automatiza la tarea de seguimiento de diferentes canales sospechosos de la difusión de noticias falsas a nivel internacional.
Esencialmente, se trata de un software que monitoriza los contenidos de los canales de YouTube y TikTok seleccionados por el usuario y que, cada 30 minutos, descarga los videos de los nuevos contenidos que se han subido al canal. Una vez descargado el vídeo se realiza una transcripción del audio en su versión original, donde se admiten más de 90 idiomas de entrada y posteriormente una traducción del mismo al español y al inglés. Con este mecanismo se genera una base de datos propia en la que se dispone del contenido de los canales en formato audio, video y textual. Son estos contenidos de audio, imagen, video y texto que se utilizarán posteriormente para realizar una valoración de la probabilidad de que las noticias sean falsas.
Esta primera parte del desarrollo está en un estado muy avanzado de desarrollo y ya se está probando su funcionalidad por diversos equipos de trabajo en RTVE, EFE, UAB, etc.
Categorías de generación de fakes
Una segunda línea de trabajo en el grupo de IVERES de la UPC es el estudio y el desarrollo de algoritmos para la detección de imágenes o vídeos generados de forma artificial. En este sentido se han clasificado los algoritmos de generación de fakes en diferentes categorías.
Como ejemplos de estas categorías tendríamos la manipulación de imágenes mediante algoritmos de tratamiento de imagen, la generación de caras artificiales, la generación de nuevos atributos (gafas, barba, tinte de pelo, etc.), el intercambio de caras entre un actor y un personaje célebre (face swapping).
Elegir el mejor software
Se trata de técnicas que llevan instauradas bastantes años y para las que existen múltiples herramientas, muy probadas, tanto para la generación de las imágenes como para su detección. En este caso, nuestro papel dentro del proyecto ha sido el de analizar todos estos métodos, probarlos en diferentes bases de datos y seleccionar e implementar aquellas herramientas software que proporcionan mejores resultados.
Estas herramientas se han incorporado en el aplicativo de monitorización para facilitar que el analista de noticias pueda verificar si las imágenes o vídeos que aparecen son susceptibles de haber sido generados de forma artificial.
Montserrat Rigall
Periodista de RTVE
¿Te gustó este artículo?
Suscríbete a nuestro RSS feed y no te perderás nada.