Contexto
Uno de los últimos desafíos en el área de la desinformación visual es la aparición de deep fakes, es decir, medios sintéticos generados por IA que utilizan aprendizaje profundo -deep learning- para crear videos falsos al intercambiar la cara de una persona por la cara de otra. Aunque la comunidad científica está avanzando a buen ritmo en la implementación de herramientas que pueden ayudar a identificar deepfakes, todavía estamos lejos de tener métodos que puedan reconocer automáticamente cualquier tipo de falsificación.
Actualmente no hay servicios de detección de falsificaciones profundas disponibles públicamente, ni hay soluciones completas de código abierto para el problema. Esta escasez de recursos deja en claro la necesidad de nuevas herramientas y servicios que puedan ponerse a disposición de los verificadores de hechos y expertos en verificación de medios para ayudar a abordar el problema.
El Centro de Investigación y Tecnología Hellas (CERTH) es uno de los ganadores de la Convocatoria de Solución: Tecnología contra la Desinformación.
La solución
CERTH es uno de los centros de investigación más grandes de Grecia con más de 1300 empleados. Dentro del CERTH, el Instituto de Tecnologías de la Información es el más grande y el equipo detrás del proyecto pertenece a Multimedia Knowledge and Social Media Analytics Lab, el cual se especializa en el área de análisis multimedia.
-La base de datos de DeepFakes: un repositorio donde los usuarios finales podrán cargar contenido que ya ha sido identificado como DeepFake.
-El motor de búsqueda: un servicio que ayudará a los usuarios a verificar si el material visualmente similar a una imagen o video de entrada ya está presente en la base de datos (y, por lo tanto, se puede marcar fácilmente como DeepFake).
El verificador (o detector) de DeepFake: un servicio que evaluará las imágenes y videos de entrada y producirá una puntuación (probabilidad) de que el contenido de entrada es un DeepFake.
El piloto
El proyecto piloto DFDLab se encuentra en proceso de implementación (enero 2022- enero 2023). Su objetivo es validar la herramienta que analiza la probabilidad de que un video o imagen sea falsa o manipulada. A su vez, se desarrollará y testeará una solución web centrada en provisionar una base de datos de deepfakes, que será continuamente ampliada por verificadores profesionales.
La herramienta será evaluada por las agencias de verificación Efe Verifica y Newtral a finales del 2022. El resultado de esta evaluación será una serie de recomendaciones de adaptación y/o mejora de la herramienta.
Resultados
Con este piloto buscamos:
– Diseñar una plataforma y base de datos de verificación de deepfakes para uso profesional y académico (portal web)
– Validar el uso de la herramienta en un entorno real (fact- checking)
– Escalar la solución a otros contextos y promover su adopción