interview  | 

¿Controla la tecnología vuestro comportamiento? Una entrevista con Lorena Jaume-Palasí

"Los datos en principio suceden porque somos seres sociales"

Tags: 'Algoritmos' 'Big data' 'Brecha digital' 'Ética' 'Inteligencia artificial' 'Parcialidad' 'Privacidad'

SHARE

Lorena Jaume-Palasí es la Directora Ejecutiva de la Ethical Tech Society. Fue cofundadora y directora ejecutiva de la organización AlgorithmWatch, con sede en Berlín, que analiza la ética de la automatización y la digitalización en el uso de algoritmos socialmente relevantes. Especializada en filosofía del derecho, forma parte del grupo de asesores en inteligencia artificial y big data para el Gobierno. Además, dirige la secretaría del Foro para la Gobernanza de Internet (IGF) en Alemania y es parte de los 100 de COTEC. En resumen, ella es una de las personas que garantiza que las máquinas y los algoritmos contribuyan al bienestar común con un uso justo de sus habilidades.

¿Qué es The Ethical Tech Society y cuáles son tus objetivos y desafíos inmediatos?

La Ethical Tech Society es una nueva iniciativa que estoy fundando en base a mi experiencia trabajando para ex ONG. Sentí la necesidad de crear algo centrado en el impacto social, pero también en el sesgo social de la tecnología, porque cuando hablamos de tecnología y discriminación, por ejemplo, solo parecemos concentrarnos en el sesgo inherente, estadístico y matemático de la tecnología.

El uso social de la tecnología tiende a ser diferente de la idea inicial porque la sociedad evoluciona. No es estático.

Por lo tanto, el comportamiento del usuario será cambiado por la tecnología, pero con el tiempo también cambiará la forma de la tecnología y habrá una evolución orgánica tanto del comportamiento humano como de este tipo de tecnología.

Si solo tiene un equipo de desarrolladores y no científicos sociales, la dimensión ética no es el centro de las discusiones. A veces las personas pueden esconderse detrás de decisiones algorítmicas para que no tengan que explicar su propio sesgo es complicado. Queríamos tener una conversación más utópica que ponga a las personas como sujetos de tecnología y no las objetiva.

El mundo de Big Data e IA es bastante opaco para la mayoría de la población mundial. ¿Podrías explicar la relación entre estos?

Cuando hablamos de IA, es una proyección cultural. Lo que hacemos con las tecnologías de inteligencia artificial es tratar de formalizar estos procesos creando o compartimentando diferentes pasos del proceso y luego reformulando esos pasos en matemáticas. Hoy en día, las tecnologías que utilizamos dependen en gran medida de los datos.

Cuando hablamos de big data o de IA, proyectamos muchas expectativas, pero en realidad no es esa magia. Estamos hablando de computación de manera inductiva.

Hay otras formas de programar IA, pero esta no es la tecnología que estamos usando en este momento. Todavía estamos hablando de automatización y aún estamos hablando de tecnologías que dependen de las matemáticas en lugar de los enfoques deductivos. Ser deductivo es en lo que los seres humanos somos buenos. La deducción es lo que usamos para contextualizar. La deducción es lo que usamos para comprender y colocarnos desde una perspectiva lógica en la posición de otra persona. Y la deducción es principalmente la estrategia que necesitamos como seres humanos para llamarnos inteligentes y confirmar si alguien tiene agencia o no.

Los algoritmos están cada vez más presentes en todas las áreas de nuestras vidas. ¿Quién es responsable de garantizar que sean justos y que las personas sean responsables?

No habrá una sola persona o una sola entidad que sea responsable de todo lo que sucede con esa tecnología, pero habrá diferentes niveles de responsabilidad según la dimensión y los riesgos o desafíos específicos.

Y eso nos lleva al desafío de crear nuevos modelos de gobierno en los que participen tanto los desarrolladores como los científicos de datos, pero también los gerentes que deciden que desean automatizar una parte específica de su proceso de trabajo. Se trata de comprender que no se trata solo de cómo los clientes interactúan con esa tecnología o los beneficios de esa tecnología, también se trata de las diferentes capas de co-formación y co-creación porque todos esos actores tendrán una influencia y un impacto en el camino Estas tecnologías se están implementando.

Los científicos de datos no pueden proporcionar conocimiento sobre este tipo de cosas porque no han sido entrenados para eso. Este no es su trabajo. Este es el trabajo de un sociólogo o un antropólogo social. Los necesitamos para crear sistemas justos.

¿Cómo podemos encontrar un equilibrio entre la privacidad y la naturaleza abierta de Internet?

El control de los datos es algo específico que concierne a la seguridad y al gobierno de esos tipos de tecnologías. Los datos en principio son algo que sucede porque somos seres sociales. Se crea como parte de nuestro lenguaje y parte de nuestras interacciones sociales. Existe una naturaleza social inherente en el concepto de datos y es por eso que no puede clasificar los datos o asignar este tipo de cosas a una sola entidad. Creemos que podemos asignar datos específicos a alguien y luego capitalizarlos. Creo que es algo peligroso porque significa que rechaza la idea de que la protección de datos es un derecho fundamental porque los derechos fundamentales no pueden capitalizarse ni comercializarse.

Una buena IA requiere mucho trabajo manual y ese trabajo manual no puede ser realizado por otro algoritmo, es realizado por seres humanos que tienen una forma de trabajo monótona y muy tediosa y puede ser bastante deshumanizante.

Creo que tenemos que ser honestos acerca de este nuevo mercado que evoluciona en Europa porque nos está volviendo a los tiempos de industrialización donde objetivaríamos partes específicas de la sociedad solo para crear trabajo que otros puedan usar para mejorar su situación.

¿Cuáles serían los efectos de los problemas de privacidad en términos de confianza?

Creo que depende de nosotros decidir si queremos ser sujetos usando tecnología y no objetos de ella.

Dependerá de los políticos y los medios y la forma en que comuniquen cómo se utilizan esas tecnologías. No quiero decir que no sea importante abordar los problemas de desigualdad social que están siendo magnificados por este tipo de tecnología, sino también ser constructivos al respecto en términos de hacer un esfuerzo para crear los valores que desea que esta tecnología tenga como dirección principal, guía principal.

Creo que esta tecnología puede ser útil para abordar muchas de las grandes preguntas que tendremos en los próximos años. ¿En qué tipo de sociedad queremos vivir? ¿Cuál es la sociedad del futuro? ¿Qué significa la cohesión social? ¿Qué significa usar tecnologías que tienen un impacto ambiental? ¿Cómo podemos crear mercados sostenibles, basados ​​no solo en la innovación, sino también en el bienestar? Podemos decidir usar la tecnología para ayudarnos a implementar esas ideas o podemos usar la tecnología para ampliar los problemas existentes. Pero no creo que sea una cuestión de tecnología, es una cuestión social.

¿En qué situaciones específicas debemos permitir que los algoritmos actúen independientemente del control humano?

Cuando automatizamos algo, debemos pensar siempre en él como un sistema que necesita supervisión adicional. Los humanos y las máquinas cometen diferentes tipos de errores. Las máquinas son consistentes, las máquinas son buenas en inducción, probabilísticas. Los seres humanos son malos en probabilística y no somos consistentes en absoluto, pero somos muy buenos en la contextualización y somos buenos para entender si esta correlación se debe a una razón u otra.