Q&A  | 

Aviv Ovadya, investigador del ecosistema de la información y la desinformación

"Necesitamos una enorme inversión en industria, sociedad civil y gobiernos para comprender y mitigar las amenazas a las que están expuestos nuestros ecosistemas de información."

Tags: 'Deep fake'

SHARE

Reading Time: 4 minutes

Aviv Ovadya es ingeniero y máster en ingeniería informática por el MIT. A través de su trabajo busca garantizar que el ecosistema de información en el que vivimos tenga un impacto positivo en la sociedad, propiciando la comprensión, la confianza y la resolución de problemas necesarios para el buen funcionamiento de una civilización. Para ello, ha estado vinculado con diferentes proyectos: ha sido investigador en la Universidad de Columbia, en la Universidad de Michigan y en el TED; ha sido jefe de tecnología en el Centro para la Responsabilidad de las Redes Sociales, y consultor para Snopes, entre otros.

En la actualidad se dedica a su proyecto Thoughtful Technology Project, es investigador no residente del German Marshall Fund, y consultor para la financiación de proyectos enfocados en la defensa de los derechos cívicos y el impacto positivo de la tecnología en la sociedad. Además, fue uno de los expertos que alertó sobre el peligro de la desinformación en internet generada por inteligencia artificial antes de las elecciones presidenciales de los Estados Unidos de 2016, y medios de todo el mundo se han hecho eco de su trabajo en los cinco continentes.

¿Puede darnos una visión general de su trabajo?

El objetivo de mi trabajo es garantizar que nuestro ecosistema de información influya de manera positiva en la sociedad, que promueva su buen funcionamiento facilitando la comprensión, la confianza y la resolución de problemas. En particular, me centro en que se den las garantías para que las nuevas tecnologías refuercen nuestro ecosistema de información en lugar de dañarlo, por ejemplo, a través de la desinformación, el acoso y la polarización. Esto conlleva trabajar con y para una amplia variedad de organizaciones de la sociedad civil, incluido mi proyecto Thoughtful Technology Project, con el que busco concienciar sobre estos desafíos y ayudar a desarrollar soluciones.

 

 

¿Cómo está afectando el deep-fake a nuestra vida cotidiana?

El deep-fake significa cosas muy diferentes para diferentes personas. La manipulación de imágenes, video y audio en el día a día hace que podamos poner filtros chulos en Snapchat y un mejor sonido en nuestras llamadas por Internet. Soy consciente de que lo que realmente me pregunta es cuál puede ser el impacto negativo en el futuro.

En este momento, el deep-fake ya se están utilizando para hostigar y difamar a personas, especialmente mujeres. La tecnología deep-fake ya nos hace desconfiar de la autenticidad de grabaciones que son reales. Otros impactos negativos podrían ser las falsificaciones en el campo de la política, en los negocios o incluso el acoso escolar.

 

¿Cómo podemos protegernos de ello?

No hay una solución única y maravillosa. Como escribí en 2018,

«necesitamos una enorme inversión en industria, sociedad civil y gobiernos para comprender y mitigar las amenazas a las que están expuestos nuestros ecosistemas de información».

Esto significa infraestructura para identificar, monitorizar y rastrear la veracidad de la información, si bien nada de todo esto funcionará a la perfección. Significa encontrar la manera de incentivar suficientemente a todos los medios de información. Y significa garantizar que las personas que crean las herramientas para generar deep-fakes lo hacen de manera responsable.

¿Cómo cambiará el Machine Learning la forma en que vivimos?

El aprendizaje automático o Machine Learning es, en esencia, la capacidad de enseñar a una computadora a realizar tareas que directamente son difíciles de programar. Esto afectará a muchos aspectos de nuestras vidas, pero me centraré en el impacto en nuestro ecosistema de información. Conforme aumentan las capacidades de los ordenadores su imitación de los humanos cada vez es más convincente.

Esto es muy útil cuando se busca un asistente personal «mágico» automatizado, pero inquietante si pensamos que se pueden crear millones de tales «asistentes» no solo para ayudar con las tareas diarias, sino controlados por personas que quieren convencernos sobre determinadas cosas. Ya vemos versiones simplistas de estas «máquinas de persuasión» en los algoritmos de webs como YouTube (que busca que veas más videos) y en en los sofisticados aunque aún poco frecuentes bots, pero a medida que la tecnología, la rentabilidad y la efectividad mejoren se irán generalizando.

 

Usted ha afirmado que los modelos de lenguaje pueden escribir artículos con apariencia real "al menos superficialmente". ¿Deberían los periodistas comenzar a preocuparse? ¿Está en camino una escritura deep-fake?

No exactamente. Hay algunos casos sencillos en los que el periodismo automatizado tiene sentido, por ejemplo en eventos deportivos donde los datos son estructurados. Pero, en general, los periodistas deben informar y escribir de manera coherente, y los sistemas automatizados todavía no están preparados para asistir en este campo. Dicho esto, hay maneras de reducir los costes del periodismo considerablemente como con la verificación automática de datos y esto probablemente aumentará la rentabilidad de dicho periodismo y su impacto en lugar de disminuirlo.

 

¿Debería la comunidad de aprendizaje automático regular la investigación para reducir el impacto nocivo de su mal uso?

Regular es una palabra fuerte.

Es cierto que el colectivo de aprendizaje automático debería comprender mejor el peligro que implica su mal uso. Es fascinante ver la transformación que experimentan las personas que optan por actuar más directamente contra esos peligros en lugar de asumir que son insignificantes. El informe que escribí en colaboración con Jess Whittlestone aborda este tipo de amenazas con más detalle y propone ciertos pasos a seguir para ayudar a mitigar los daños.

Sugerimos, por ejemplo, que haya expertos que analicen las propuestas de investigación sobre este tema «para que la carga no recaiga únicamente en investigadores individuales (que quizás no tienen la experiencia necesaria)”. También he escrito una serie de recomendaciones para minimizar los efectos negativos de los sistemas implementados, que espero publicar en breve. Por ejemplo, asegurarnos de que las imágenes generadas por ordenador tengan siempre una marca de agua resistente.

¿Y los gobiernos?

Los gobiernos debería destinar muchísima más financiación a la investigación y a la reducción de daños. Hay pocas áreas donde legislar tiene sentido, fundamentalmente en lo que se refiere a garantizar que las leyes existentes se apliquen también a internet y a las imágenes generadas por ordenador.

Pero lo más importante es obtener más fondos para crear toda la infraestructura necesaria y medir su efectividad.

 

En el proceso de adaptar nuestras vidas al aprendizaje automático, ¿qué debería cambiar en los modelos educativos para mitigar ese potencial impacto nocivo?

Más allá del aprendizaje automático, nuestro mundo cambia cada vez más rápido y necesitamos una mejor educación para que nuestros sistemas cívicos funcionen. Saber qué es la web ya es algo, pero es solo el comienzo.

 

¿Podrá el aprendizaje automático fingir la amistad algún día?

Ya lo ha hecho. ¡Solo depende del tipo de amigo estés buscando!