Q&A  | 

Aimee van Wynsberghe

«Los gobiernos deben crear un marco que obligue a las empresas tecnológicas a tomarse en serio la ética»

Tags: 'Data ethics' 'Ética de datos'

SHARE

Reading Time: 4 minutes

Aimee van Wynsberghe lleva trabajando en el campo de las TIC y la robótica desde 2004. Comenzó su carrera en Canadá formando parte de un equipo de investigación que trabaja con robots quirúrgicos en CSTAR (Canadian Surgical Technologies and Advance Robotics). Cofundadora y codirectora de Foundation for Responsible Robotics y miembro del consejo de Institute for Accountability in a Digital Age, Aimee también es miembro del grupo de alto nivel de la Comisión Europea sobre IA y miembro fundador de la Alianza para la IA de los Países Bajos. Además, ha sido nombrada una de las 400 mujeres menores de 38 años más influyentes de los Países Bajos por VIVA y una de las 25 «mujeres del campo de la robótica que debes conocer».

¿Qué es la ética de datos?

Es el estudio de las cuestiones éticas que rodean a la recopilación, estructuración, etiquetado, uso y posible uso futuro de los datos. La ética digital es el estudio del impacto de las tecnologías digitales en la sociedad.

 

 

¿Cuáles son los principales problemas éticos que plantea el big data?

La recopilación de datos sin consentimiento previo, la institucionalización de prejuicios y tabúes, la asimetría de poder entre la industria (titulares de los datos) y los ciudadanos (creadores de los datos); el uso dual de los datos y el riesgo de que, en un futuro, estos sean robados o utilizados con fines poco éticos.

La ética es una rama de la filosofía desarrollada de manera dialógica, pero aún no se aplica fácilmente a la informática. ¿Por qué es así? ¿Cómo podríamos implantar la ética de datos de una manera más efectiva?

Para aplicar la ética a la informática debemos hacer tres cosas de manera sistemática.

La primera es incluir en los proyectos informáticos de las universidades un componente que estimule a los estudiantes a reflexionar sobre los riesgos éticos específicos de sus proyectos y a pensar en las opciones de diseño que llevarían a cabo para mitigarlos.

En segundo lugar, los expertos en ética deben estar capacitados para interactuar con científicos e ingenieros informáticos de una manera más productiva. Es necesario que los científicos informáticos sean conscientes de que existen problemas éticos relacionados con su trabajo y que haya alguien con la experiencia necesaria para ayudarles a reflexionar sobre ellos, para así hallar opciones de diseño que mejoren los proyectos. En tercer lugar, los gobiernos deben crear un marco que obligue a las empresas tecnológicas a tomarse en serio la ética. Esto permitirá a los informáticos que cursen la asignatura de ética en su plan de estudios debatir sobre cuestiones éticas y poder convencer a las empresas para que busquen especialistas en la materia para poder así obtener un punto de vista crítico de los nuevos productos y funciones.

Los sesgos en los algoritmos a menudo conducen a la discriminación. A veces el problema no está en el propio algoritmo o en los datos, sino en la conceptualización. Dada la complejidad del proceso de ADM, en el que intervienen tantas partes, ¿cómo podemos exigir responsabilidades y qué podemos hacer para evitar la discriminación?

Algo que puede ayudar mucho con este problema de la responsabilidad es exigir que los algoritmos vengan acompañados de una garantía de higiene de datos.

La idea es que los datos utilizados para crear el algoritmo se analicen y evalúen en busca de problemas de sesgo, lo que además garantiza un proceso de recopilación de datos ético. Esto evitaría el uso de algoritmos sesgados por la naturaleza de los datos utilizados para su creación. Esto también permitiría a aquellos que estén pensando en usar un algoritmo ver si los datos con los que se ha formado incluyen a grupos de personas que estarán expuestas al algoritmo en el contexto en el que se va a utilizar. Un algoritmo formado con un conjunto de datos amplio y diverso que se vaya a usar de manera responsable en Estados Unidos probablemente será un algoritmo que no podrá usarse de manera responsable en un campo de refugiados sirios.

El año pasado se multiplicaron los comités, las guías y los debates en torno a la ética. ¿Cree que se trata de pura palabrería o es realmente un primer paso hacia una gobernanza de datos ética?

Es difícil afirmar de manera inequívoca si todos los esfuerzos son o no palabrería. En general, vemos que cuando se trata de las propias empresas de IA, existe un gran interés por proteger la propiedad intelectual y/o los especialistas de ética no tienen un papel o una función clara, lo cual hace que sí parezca palabrería. Sin embargo, muchos grupos de la sociedad civil o grupos de múltiples interesados están creando pautas que suponen un primer paso necesario hacia los instrumentos de gobernanza de la IA.

Es importante recordar que no es una cuestión de ética o regulación, sino que se trata más bien de ética Y regulación. La ética intenta ayudarnos a conseguir los tipos de reglamentos (y el ámbito) que podríamos necesitar.

¿Cómo pueden las empresas tecnológicas poner en práctica principios éticos?

Les será extremadamente difícil hacerlo con la experiencia que tienen ahora. Deberán contratar a profesionales que lleven a cabo este proceso, o bien buscar ayuda externa.

De esta manera además, legitimarían la puesta en marcha de los procesos, ya que la transparencia de las empresas tecnológicas es uno de los asuntos que más preocupa actualmente.

Estoy realizando un proyecto con Deloitte para ayudar a las empresas a hacer precisamente esto, ofrecer profesionales externos que ayuden a las empresas a introducir la ética digital en sus organizaciones) y en este momento la Comisión Europea está trabajando en ello con un estudio piloto sobre cómo establecer pautas para una IA fiable en las organizaciones. Una última cuestión es que esta puesta en marcha debe ser, hasta cierto punto, transparente. Para restablecer la confianza en las empresas tecnológicas, el público en general deberá saber si estas pautas de ética están teniendo algún tipo de efecto.

¿Es aceptable renunciar a las consideraciones éticas, por ejemplo, recopilando datos personales sin dar a las personas la opción de optar de no participar, en nombre del bien común?

Nunca es aceptable renunciar a las consideraciones éticas. Sin embargo, la recopilación de datos personales sin dar a las personas la opción de optar por no participar puede realizarse de manera ética.

A la mayoría de nosotros no se nos permite optar por no dar detalles financieros personales al gobierno porque el gobierno necesita impuestos para lograr una sociedad mejor. Sin embargo, este tipo de recopilación de datos generalmente se realiza bajo una supervisión estricta y con transparencia, con leyes específicas que regulan la práctica. Ninguna empresa tecnológica debería decidir qué propósito (y la posibilidad de que los datos alcancen dicho propósito) legitima las prácticas de recopilación de datos.