video  | 

DFS Voices – The Centre for Research & Technology, Hellas. Ganadora de Tech Against Disinformation

SHARE

Reading Time: 4 minutes
Entrevistamos a Symeon Papadopoulos, investigador del Centro de Investigación y Tecnología-Hellas (CERTH), fundado en 2000, es uno de los principales centros de investigación de Grecia y también uno de los ganadores de la convocatoria de soluciones de Digital Future Society: “¿Cómo puede la tecnología ayudar a combatir la desinformación optimizando el procesos de verificación de hechos? ”.

Su propuesta, DeepFake Detection Lab (DFD Lab), ayudará a los fact-checkers a abordar el desafío de identificar rostros manipulados por IA en imágenes y videos con ejemplos prácticos y una herramienta de detección.

 

Symeon, ¿nos podrías explicar un poco tu propuesta y cómo funciona? ¿Cuál es el objetivo de su solución y cómo se supone que debe usarse?

En primer lugar, muchas gracias por invitarme y me siento honrado de recibir esta beca para realizar este proyecto. Nuestro objetivo es abordar el importante problema de las falsificaciones profundas. Las falsificaciones profundas se refieren al contenido que es total o parcialmente generado por algoritmos de inteligencia artificial para aquellos que no están familiarizados con la tecnología. Y ya hay muchos casos conocidos en la web, como cuando las personas intercambian los rostros de celebridades por otro. Cambian el rostro de una persona desconocida por el de una celebridad para que parezca que la celebridad está hablando o involucrada en algún tipo de incidente.

Otra aplicación muy dañina es la llamada pornografía de venganza, que puede apuntar tanto a celebridades como a ciudadanos, y tiene obvias implicaciones negativas para todos. Por lo tanto, nuestro proyecto y nuestra propuesta intentan ayudar a los verificadores de datos y a los periodistas a analizar videos e imágenes en línea y decidir si un video es falso o no. El problema es complejo desde un punto de vista científico y técnico. Y por esa razón, no solo proponemos un servicio de detección simple, el enfoque estándar.

También queremos permitir que los verificadores de hechos y los periodistas realicen un seguimiento de muchos casos existentes que ya han señalado. Y lo hacemos a través de un repositorio o base de datos de falsificaciones profundas conocidas. También admitimos una especie de búsqueda de video inversa para insertar video como entrada; luego pueden averiguar si se trata de un caso conocido a partir de esta base de datos de falsificaciones profundas. Y, por supuesto, también brindamos un servicio de detección profunda de falsificaciones para ayudarlos en este proceso. Entonces, en pocas palabras, eso es todo.

 

 

Desde que ha estado trabajando en torno al tema, ¿qué tan preocupante cree que es la desinformación hoy en día?

Bueno, en primer lugar, en un área más amplia, la desinformación en línea es mucho más amenazante. En nuestra propuesta, estamos hablando de una forma específica de desinformación. Si ve las últimas tendencias, los tipos de desinformación más frecuentes no son falsificaciones profundas. Hay formas mucho más sencillas de difundir propaganda y de sembrar confusión entre la gente. Pero prevemos que las falsificaciones profundas se volverán mucho más críticas y riesgosas a medida que la tecnología madure y se vuelva más convincente y realista porque las personas están programadas por naturaleza para creer en la imagen y el sonido.

Hoy en día, pasamos mucho tiempo haciendo teleconferencias y viendo videos en Internet debido a la pandemia. Hemos perdido el contacto con el mundo real para que alguien pueda crear videos falsos convincentes. Entiendes que esta posibilidad les da el poder de manipular opiniones, incluso en escalas enormes. Creo que es un desarrollo preocupante y deberíamos estar prestando atención.

 

 

¿Dónde crees que se encuentra la tecnología en todo este tema de información? ¿Por qué le resulta esencial utilizar la tecnología para abordar estos problemas?

Bueno, la tecnología, por supuesto, es solo una parte de la solución. No podemos confiar completamente en la tecnología porque el problema está basado en la tecnología, y todos estos fenómenos y todos estos riesgos son facilitados por la tecnología. Esto significa que también necesitamos un tipo de defensa que tenga tecnología similar. Es una especie de carrera armamentística, lamentablemente. Por lo tanto, no podemos esperar que simplemente mediante un análisis manual en nombre de los periodistas y verificadores de hechos, estemos lo suficientemente preparados para abordar este problema. Entonces pensamos que más allá de las soluciones sociales, políticas y regulatorias que también están en movimiento, este tema necesita ser complementado y asistido por herramientas tecnológicas apropiadas y otro tipo de soluciones.

 

 

Según su experiencia, ¿cómo funcionaría un proceso óptimo de verificación de datos?

Bueno, esa es una excelente pregunta. No está resuelto. Bueno, al menos de acuerdo con nuestra propuesta, el verificador de hechos y el periodista siempre deben tener el control del proceso, y deben tener una gama de herramientas poderosas en su arsenal. También deberían poder retroalimentar el sistema con sus propias experiencias.

Deberían poder contribuir con los casos existentes porque estos casos ayudarán a construir un repositorio que podamos comparar, pero también son útiles para reentrenar los modelos de IA en el futuro. Y también es beneficioso capacitar a periodistas jóvenes y verificadores de hechos porque puede mostrarles casos anteriores y estar mejor preparado. Y, por supuesto, necesitamos servicios de detección de defectos que sean fáciles de usar, fáciles de entender y los resultados sean transparentes.

Necesita ayudar a los periodistas con algunas explicaciones adicionales y algunos recursos adicionales.

 

 

Y la última pregunta, ¿quién lo hace? ¿Cree que es el último actor responsable el que debe hacer algo para evitar convertirse en una sociedad mal informada?

 Sí, no hay un solo actor que pueda solucionar el problema; Es necesario que se unan múltiples responsabilidades y múltiples partes interesadas. Vimos cómo esta complejidad se convirtió en un desafío durante la pandemia porque no se trataba simplemente de reunir los hechos y comunicárselos a los ciudadanos. Necesita un conjunto completo de medidas, un conjunto completo de campos científicos para estudiar el problema. Por eso creo que, por supuesto, se necesitan herramientas tecnológicas.

Necesitamos un reglamento que la Comisión Europea está tratando de presentar con la ley de IA. También está la Ley de Servicios Digitales, que también intenta hacer algo al respecto. También hay, por supuesto, aspectos relacionados con la educación. Recientemente estuve haciendo algunas presentaciones en escuelas de secundaria en Grecia y me sorprendió que los niños estén familiarizados con este problema. Pueden comprender muy fácilmente las implicaciones y las soluciones subyacentes que intentamos construir. Así que creo que incluso desde una edad temprana, este problema debe ser llamado a la atención de los estudiantes y educar a las personas mayores que son más vulnerables a este tipo de campañas y riesgos.

Por supuesto, creo que necesitamos más investigación sobre el problema porque es un campo en gran evolución, las nuevas tecnologías se presentan todos los días. También necesitamos estudiar mejor, por ejemplo, cómo el cerebro humano procesa este tipo de información y ver cómo podemos modificarlo para estar mejor preparados. Así que hay tantas cosas que tenemos que hacer, y creo que todavía estamos en el principio.