interview  | 

Rumman Chowdhury

"Cuando la programación se volvió rentable pasó a ser vista como algo masculino y las mujeres fueron excluidas."

Tags: 'Accenture' 'Inteligencia artificial' 'Rumman Chowdhury'

SHARE

La pasión de Rumman Chowdhury está en la intersección entre la inteligencia artificial y la humanidad. Cuenta con estudios en Ciencias Sociales Cuantitativas y ha trabajado como Científica de Datos y Desarrolladora de Inteligencia Artificial desde 2013. Actualmente es la Líder Global de Inteligencia Artificial en Accenture Applied Intelligence, donde trabaja con clientes de C-suite para crear soluciones técnicas de vanguardia para conseguir una inteligencia artificial ética, explicable y transparente. En su trabajo en Accenture, dirige el diseño de la herramienta ‘The Fairness Tool’: una herramienta pionera de identificación y mitigación de sesgo en los sistemas de IA. ‘The Fairness Tool’ ha sido utilizado con éxito por los clientes de Accenture de todo el mundo.

¿Podrías hablarnos de la inteligencia aplicada de Accenture y cuáles son tus objetivos actuales y desafíos clave para la inteligencia artificial responsable?

La inteligencia aplicada de Accenture es el motor de IA de Accenture, y yo soy nuestra líder a nivel mundial de inteligencia artificial responsable. No solo pienso en los problemas éticos sino que además creo soluciones y trabajo con los clientes para lograrlo. Eso significa a veces crear herramientas técnicas, a veces dar orientación estratégica, a veces es un modelo de gobernanza, pero mi trabajo y mi rol siempre han sido brindar soluciones para los clientes.

Se ha dicho que la convergencia de Big Data e IA es el desarrollo más importante para nuestro futuro. ¿Por qué?

Bueno, la convergencia de big data e inteligencia artificial ha sido absolutamente fundamental. El concepto de inteligencia artificial han existido desde los años 50. No pudimos promulgarlos. La creación de bases de datos relacionales, las mejoras en el poder de cómputo, así como el crecimiento de la cantidad de datos que tenemos, en realidad es lo que permite que florezca la inteligencia artificial.

Dices que tu pasión es la intersección de la inteligencia artificial y la humanidad. ¿Puedes explicar a qué te refieres con esto?

Mi pasión radica en la intersección de la inteligencia artificial y la humanidad.

Y lo que eso significa es tanto desde una perspectiva técnica, si, pensamos en algoritmos de abastecimiento de datos que dan forma a nuestra IA y nuestras tecnologías. Como también hay una vertiente muy humana. Últimamente he estado usando el término sistemas algorítmicos cada vez más porque la palabra “sistema” respeta el hecho de que esto no es solo una tecnología ya que se usa en el contexto de la sociedad y ahí es donde lo humano entra en juego.

Cuando se trata de relaciones Humano-IA, ¿cómo crees que nuestra vida diaria y nuestra vida laboral cambiarán en los próximos años?

Cuando se trata de estas tecnologías, hay formas significativas en que nuestra vida cotidiana y nuestra vida laboral ya han cambiado y continuarán cambiando. Y hay que tener en cuenta el aumento de los datos de información en tiempo real y la globalización de los conceptos. Hoy en día, si tengo una idea, no es algo que simplemente comparto con mis amigos o quizás escribo una historia. Todo se comparte con el mundo inmediatamente en tiempo real. Así que creo que eso realmente impacta la cantidad de información y conocimiento que tenemos. Por supuesto, la desventaja es que ahora hay mucho ruido. Entonces vemos cosas como el surgimiento de la pseudociencia o los movimientos nacionalistas. Así que creo que una forma muy importante en la que estamos pensando tanto en nuestra vida personal como en nuestra vida laboral es

cómo gestionamos la gran cantidad de información que se nos presenta, dadas nuestras limitaciones humanas de poder comprender y procesar los datos que podemos dentro de nuestras capacidades mentales.

Hablemos de la ética de los datos y las prácticas éticas de inteligencia artificial. Asesoras a las empresas en sus prácticas éticas o responsables de IA, ¿cuáles son los mayores problemas éticos en lo que respecta a la IA?

Existen muchos problemas éticos cuando se trata de inteligencia artificial

y, a veces, son tan básicos como lo que yo llamo Data Science 101. ¿Cuál es el tipo de datos que usas? ¿De dónde viene? ¿Refleja con precisión lo que estás tratando de medir? ¿Han sido informadas las personas, han dado su consentimiento? Y algunos de ellos también son de naturaleza más filosófica, ¿verdad? El hecho de que puedas construir algo no significa que debas hacerlo. ¿Hay algún tipo de daño a la humanidad o algún derecho humano básico que se está vulnerando? Por lo tanto, es difícil limitar realmente las implicaciones éticas a una pequeña lista. Pero lo que diría es que hay una amplia gama de consideraciones y lo que tenemos son marcos específicos para los tipos de preguntas que las personas hacen y el contexto en el que se utilizará puede ayudar a dar una guía sobre cuáles serían las preguntas correctas.

Llegaste a la ciencia de datos desde un trasfondo en ciencias sociales cualitativas. ¿Crees que esto ha tenido algún impacto específico en tu enfoque hacia la IA y los datos?

Llegé a la inteligencia artificial desde un trasfondo en ciencias sociales cualitativas y lo que eso me da a mí y a personas como yo es una perspectiva diferente sobre los datos y los algoritmos.

Creo que mi prioridad es la humanidad y la sociedad. Y para mí, la programación, el cálculo, es una especie de herramienta que utilizo para lograr el objetivo. Pero el objetivo es el avance de la humanidad.

La ética es una rama de la filosofía que normalmente no se combina con la informática. ¿Por qué es esto y cómo podemos sembrar la ética de los datos en un plan de estudios de manera más efectiva?

Hay movimientos para ver la ética de los datos y la ética en general en la informática. Y lo que estamos viendo es casi un choque de culturas donde creo que muchas personas que son quizás más matemáticas, cuantitativas, analíticas, ven las preguntas éticas como demasiado filosóficas y no aplicadas. Y en realidad estoy de acuerdo con ellos. Tengo experiencia en filosofía política y, en mi opinión,

lo que la filosofía te ayuda realmente es a hacer preguntas. No necesariamente te da respuestas. Y creo que esa es la dificultad.

Las personas puramente cuantitativas generalmente solo quieren una respuesta. Y lo que la filosofía y muchos marcos éticos intentan hacer es ayudar a formular preguntas. Entonces, lo que debe suceder es esta fusión de los dos, donde no solo se basa en los resultados, pero tampoco se basa solo en la teoría.

Ha habido una proliferación de declaraciones éticas, directrices y comités durante el año pasado. ¿Viste esto como un primer paso genuino para un gobierno ético de datos?

Ha habido una proliferación de tantos tipos diferentes de pautas éticas, reglas, principios, etc. Y la dificultad en realidad ha sido tomar medidas sobre ellos. Se puede decir que la IA no debería hacer daño. ¿Qué significa eso realmente cuando creas inteligencia artificial? Estos son pasos muy útiles para crear pautas éticas o tecnología ética, pero son insuficientes. Así que ahora estamos realmente trabajando en cómo podemos aplicar estas cosas.

¿Cómo podemos garantizar que las empresas estén implementando marcos éticos en nuestra asistencia?

Una de las empresas con las que trabajo está muy preocupada por crear marcos éticos para implementar en sus sistemas. Lo que realmente les preocupa es la confiabilidad de estos sistemas, ¿Cómo podemos asegurarnos de que las personas confíen en lo que está sucediendo? No se trata solo de crear una tecnología en una burbuja que sé que es buena. En realidad, debe comunicarse al público y el público debe confiar en mí y yo necesito ganarme esa confianza. Así que eso es mucho de lo que trabajo con las empresas. No siempre es una solución técnica. A veces se trata de comunicación, se trata de una buena gestión, se trata de transparencia y la unión de todo esto para crear sistemas más éticos.

¿Cómo es el sector público y privado trabajando juntos cuando se trata de ética de datos? ¿Es efectivo este tipo de colaboración?

Una colaboración pública y privada sobre la ética de datos es absolutamente necesaria y vital, especialmente cuando pensamos en la creación de ciudades inteligentes, la digitalización de nuestra infraestructura gubernamental, ¿verdad?

Confiamos en empresas privadas con información muy personal sobre nosotros. Esto ya no es el almacenamiento de contraseñas. Ahora está almacenando huellas digitales, números de seguridad social, información biométrica y algunas de las cosas no se pueden cambiar. Si alguien roba tu contraseña puedes cambiarla, mientras que no puedes cambiar tu huella digital o tu iris. Por lo tanto, es absolutamente necesario que estos grupos colaboren y trabajen juntos si queremos crear el tipo de sistemas responsables que mejoren la humanidad, lo cual es el objetivo que pienso de la mayoría de las personas que trabajan en este espacio tienen.

Parece que a menudo las tecnologías se desarrollan e implementan y solo después de eso comenzamos a pensar en sus implicaciones éticas. ¿Por qué es esto? ¿Es posible revertir esta tendencia?

A menudo, la tecnología se construye y luego vemos los daños que, francamente, muchos de nosotros decimos que deberían haberse pensado antes. Esta no es una parte normal de la ciencia de datos. A menudo, la propuesta de valor de construcción tecnológica es la eficiencia o el ingreso, ¿Me hará ganar dinero, me ahorrará dinero o hará las cosas más eficientes, lo que esencialmente me hace dinero o me ahorra dinero, verdad? Así que creo que parte de esto es algo que llamo el “razonamiento básico”, es decir: «sólo porque puedes no significa que debas». Este razonamiento no está fundamentado en las ganancias económicas o en la eficiencia. Es una propuesta basada en algo como el florecimiento, el bienestar, los daños potenciales, etc.

Entonces, creo que la mejor manera de evitar la creación de tecnología que, en retrospectiva, era algo que no deberíamos haber construido, es abordar el hecho de que necesitamos valores que no se basen solo en la eficiencia y la rentabilidad, sino que se basen en la humanidad y florecimiento humano.

Hablemos sobre la diversidad de género y la IA. Fuiste seleccionada como una de las BBC 100 Women como parte de #teamlead, encargada de abordar la desigualdad creando una aplicación que puede enseñar a las mujeres a apoyarse durante las reuniones. ¿Puedes explicarnos esta aplicación?

A veces, la narrativa del “apoyo” es un poco problemática porque pone la responsabilidad en los grupos que ya están marginados para presionar más contra un sistema que ya está ejerciendo presión contra ellos. La intención de la aplicación era en realidad dar visibilidad sobre cómo las personas se comunican y hablan durante las reuniones. Así que esta no es solo una aplicación para mujeres. Puede ser una aplicación para personas tranquilas, introvertidas.

Muy a menudo, nuestras dinámicas corporativas en el lugar de trabajo y, a menudo, las dinámicas de equipo favorecen a las personas que hablan más, que son más extrovertidas, que son más alfa. Y estas no son necesariamente personas que tienen las mejores ideas.

Por lo tanto, la intención de la aplicación era usar el reconocimiento de voz y crear minutos de reunión esencialmente que luego se analizan por cosas como el sentimiento o la cantidad de tiempo que la gente habló para dar retroalimentación en tiempo real. Esto también ayuda a los gerentes a comprender la dinámica del equipo en sus propios grupos porque las personas tienden a tener puntos de vista muy subjetivos. Un estudio de Harvard Business Review mostró que cuando las mujeres hablan el 30% del tiempo, los hombres en la sala piensan que están hablando más de la mitad del tiempo. Entonces, incluso la percepción de cuánto habla la gente no es un reflejo de la realidad. Lo que quería hacer era dar datos empíricos, datos para que las personas pudieran mirar objetivamente lo que está sucediendo en su reunión y la dinámica de la misma.

¿Por qué una IA ha sido vista tradicionalmente como predominantemente masculina?

Hay un montón de libros realmente buenos que realmente analizan ese fenómeno. Mar Hicks escribió un libro llamado Desigualdad programada, que trata sobre cómo los mundos de computación en el Reino Unido se derrumbaron debido a la marginación de las mujeres. Cuando se convirtió en el trabajo de un hombre programar.

Tradicionalmente, en los Estados Unidos, la programación entre los años cincuenta y sesenta se consideraba un trabajo de mujeres porque parecía similar a la mecanografía. No fue hasta que se volvió rentable que pasó a ser visto como algo masculino donde las mujeres fueron excluidas.

Por lo tanto, está muy relacionado con la dinámica social, particularmente con lo que consideramos trabajos femeninos y masculinos, pero también donde ponemos valor, lo que tiende a ser, francamente, que los trabajos feminizados no tienen valor y los trabajos masculinos valen más. En realidad es una narrativa bastante compleja. Creo que el otro problema aquí es que existe esta narrativa del programador solitario que usa sudadera con capucha y deja la universidad para fundar una startup que acaba de consolidarse en la década de 2000 y, francamente, estos cultos de personalidad y demás que se construyen alrededor de una persona singular. para mi, siempre será problemáticas porque entonces las personas no toman decisiones de manera singular, no están ejerciendo su capacidad de pensar críticamente. Creo que hay mucho que trabajar allí, pero

fundamentalmente creo que las narrativas singulares o demasiado simplistas son las que conducen a la marginación de las personas, ya sea por género, ingresos, raza, lo que sea.

¿Cuál crees que es la clave para incentivar a más mujeres a entrar al mundo de la IA?

Cuando se piensa en cómo atraer a más mujeres a la IA, eso es una especie de declaración compleja, ¿verdad? Entonces, para las mujeres que ya trabajan en la industria, mucha gente dirá que no hay suficiente apoyo. Por lo tanto, no se trata solo de educar a las jóvenes para que se interesen en la inteligencia artificial sino además, ¿qué sucede cuando obtienen estos trabajos? ¿cómo son tratados?

En todas las iniciativas de diversidad, procuro no centrarse meramente en la educación y contratar más mujeres, sino pensar en la promoción y retención de las mujeres que tienes.

Porque si dices que quieres una fuerza laboral femenina del 50%, pero miras dónde están las personas en la jerarquía y vemos que el 75% de los principiantes son mujeres y en nivel superiores su porcentaje es 0, no has alcanzado tu objetivo. Entonces hay múltiples factores. Sí, es importante alentar y despertar el interés en todo tipo de personas para ingresar a la tecnología para crear un campo de juego nivelado. Pero luego el campo de juego nivelado tiene que perpetuarse una vez que están en estos trabajos y roles y deben existir para las mujeres y las minorías que están en estos trabajos hoy.

Existe la preocupación de que, dado que los algoritmos no han sido diseñados por un grupo diverso de personas, no estamos diseñando sistemas automatizados lo suficientemente inclusivos. ¿Cómo podemos crear más diversidad y evitar sesgos en los algoritmos?

Es muy importante cuando se piensa en el sesgo algorítmico pensar en la diversidad cuando se crea. Ciertamente hay una narrativa sobre centrarse en la humanidad en este momento y la gente está hablando de ello. Recientemente publiqué un artículo en VentureBeat llamado The Retrofit Human, que consiste en pensar en cómo queremos intentar crear un diseño inclusivo. Pero en realidad tenemos esta narrativa de un tecno-solucionismo o tecno-chovinismo, que prácticamente dice que cualquier sistema tecnológico es mejor que un sistema construido por el hombre, lo que francamente es falso. Se trata de diversidad de pensamiento. No solo diversidad representacional. Solo porque soy mujer, no hablo por todas las mujeres, ¿verdad? Por ejemplo, solo porque seas X no significa que hables por todas las personas que pertenecen a ese subgrupo. Pero en realidad se trata de apertura a la retroalimentación. Tener sistemas algorítmicos que realmente funcionan en respuesta a los humanos que interactúan con él y tener eso integrado en el diseño que hará que los algoritmos sean más inclusivos y, esperemos, menos sesgados.

Me gustaría terminar la entrevista hablando de algo que dijiste, que es que la inteligencia artificial puede reflejar y reforzar los prejuicios sociales y las diferencias de género, pero también puede ayudar a combatirlos. ¿Cómo?

La inteligencia artificial puede usarse para reforzar estos prejuicios pero también puede usarse para combatirlos.

Y ese es mi trabajo y eso es lo que trato de hacer. Intento crear herramientas técnicas que realmente ayuden a identificar dónde pueden surgir problemas de manera estandarizada en los productos que estás creando. Construí algo llamado The Fairness Tool con mi equipo. Esta herramienta ayuda a identificar tipos específicos de sesgos que surgen en los datos y en un modelo y los resultados también sugieren cosas que se pueden hacer para evitarlo. Mi equipo ha creado un marco de evaluación algorítmica, que es una metodología cualitativa y cuantitativa para abordar este tipo de sesgo algorítmico. Hay formas de utilizar esta tecnología para ayudar a identificar los tipos de sesgos que podrían surgir. Creo que es muy útil pensar no solo en estos algoritmos como una herramienta para construir algo, sino también en cómo hacer algoritmos o modelos que ayuden a comprender los algoritmos que se construyan.