Q&A  | 

Gry Hasselbach

«No tenemos por qué renunciar a nuestra privacidad para tener una vida digital»

Tags: 'Ética de datos' 'gobierno electrónico'

SHARE

Reading Time: 3 minutes

Gry Hasselbalch es cofundadora de DataEthics.eu. Durante más de una década, ha trabajado en la industria con legisladores, ONGs y usuarios finales en el campo de la tecnología, la ética, los derechos humanos y la sociedad. Es asesora independiente y en múltiples ocasiones instituciones internacionales y gobiernos le han encomendado tareas como experta independiente. Más recientemente, en 2018, ha sido llamada a convertirse en miembro del Grupo de Expertos en Ética de Datos danés, que tiene como objetivo proporcionar al gobierno danés recomendaciones sobre cuestiones relacionadas con la ética de datos. También ha sido nombrada miembro del grupo de alto nivel de la Comisión Europea sobre IA y ética que elabora pautas de ética y políticas para la IA en Europa, y copresidenta del estándar P7006 dentro de la Iniciativa Global de IEEE para Consideraciones Éticas en IA y Sistemas Autónomos. Gry está detrás de varios estudios, informes y artículos, y escribió un doctorado en la Universidad de Copenhague sobre las preocupaciones de la Ética de Datos.

¿Cómo ve la evolución de la revolución digital en la próxima década?

La respuesta a esta pregunta depende de lo que hagamos en la actualidad. Normalmente las predicciones sobre desarrollos tecnológicos se configuran como una dicotomía entre lo bueno y lo malo. Como riesgos u oportunidades. Pero en realidad, tienen el potencial para ser ambas cosas, la mayoría de las veces al mismo tiempo. Si, por ejemplo, consideramos las tecnologías digitales y la privacidad, no tenemos que pensar en ellas como mutuamente excluyentes.

No tenemos por qué renunciar a nuestra privacidad para tener una vida digital. Podemos construir privacidad mediante tecnologías de diseño.

Podemos crear almacenes de datos personales donde tengamos el control de nuestros datos y elegir cómo compartirlos y con qué fin. Todo depende de cómo nuestra sociedad elija dar forma a este proyecto teniendo en cuenta qué tipo de infraestructura digital queremos.

¿El futuro va a ser más o menos inclusivo?

Dependerá de los valores que incorporemos al desarrollo tecnológico.

La inclusión es un valor fundamental centrado en el ser humano que destaca en todos los principios y directrices éticos que se publican en todo el mundo en este momento. Sin embargo, es un valor que no siempre se tiene en cuenta en la fase de diseño de las tecnologías, ni en su adaptación.

Esto es así por varios motivos. Porque no es rentable diseñar para la inclusión, porque no sirve al propósito de la eficiencia, y lo más importante, porque la discriminación y los prejuicios ya son un problema social que las tecnologías simplemente reproducen y refuerzan. En los últimos años, ya hemos visto cómo las tecnologías pueden amplificar los poderes existentes en la sociedad con historias sobre algoritmos discriminatorios, manipulación de votantes con big data, noticias falsas, etc.

Las tecnologías son infraestructuras como las carreteras y los edificios, se trata de datos y señales que nos llevan por caminos concretos. No pensamos en ellas hasta el día en que se rompen. Pero no debemos olvidar nunca su fuerza social.

¿Cuál es la clave para construir una sociedad digital más equitativa?

La sociedad y las tecnologías evolucionan en un proceso constante de negociación, innovación, experimentación y adaptación. Y después también están los momentos de consenso y normalización.

Ahora mismo estamos en un momento así. En este momento, por ejemplo, en empresas y gobiernos de todo el mundo se están llevando a cabo debates sobre ética de datos y ética de inteligencia artificial. En la actualidad se dice que la ética es la nueva ecología. Durante el año pasado, por ejemplo, formé parte del debate europeo sobre la ética de la IA como miembro del grupo de expertos de alto nivel de la UE sobre IA, donde publicamos hace apenas unos meses pautas de ética y recomendaciones de política sobre IA. La OCDE también acaba de publicar una serie de pautas y en todo el mundo, las naciones y los gobiernos están presentando su versión de «ética de la tecnología».

Estamos revisando nuestros sistemas de valores, por decirlo así, para comprender cómo se aplica la ética en este entorno tecnológico con tal magnitud de datos.

¿Cómo encajan los principios democráticos? ¿Quién o qué se encarga de ellos? ¿Existen nuevas formas de responsabilidad? ¿Cómo transferimos los valores normalizados originales, como nuestros derechos humanos, a esta era? ¿Cómo los incorporamos en la infraestructura tecnológica de las cosas inteligentes? ¿Necesitamos reformas legales? ¿Debemos analizar el diseño de tecnologías alternativas de diseño ético, al igual que hemos estado construyendo durante un tiempo tecnología verde alternativa?

La clave para construir una sociedad digital igualitaria está dentro en todas estas preguntas.

¿Qué tecnología será la más radical en el futuro próximo?

No veo ninguna tecnología concreta como radical. Prefiero considerar las tecnologías dentro de contextos.

En general, cualquier tecnología forma parte de un proceso de negociación entre diferentes actores de la sociedad y sus valores e intereses. Su efecto inmediato en la sociedad depende de cómo se negocien estos intereses y qué valores sobresalgan por encima de otros.

Por ejemplo, en este momento estamos en un proceso de negociación sobre qué papel debería desempeñar en la sociedad la IA: ¿A quién o para qué sirve? ¿Se trata únicamente de una aventura empresarial o es un modo que tienen los estados para controlar a sus ciudadanos? ¿Sirve a los seres humanos y a la sociedad en general?

Los cambios radicales en la sociedad causados por las tecnologías dependerán de cómo se resuelvan y negocien los conflictos entre los actores principales.