Article  | 

Discriminación algorítmica de género: ¿de dónde viene, cuál es el impacto y cómo podemos abordarlo?

SHARE

Reading Time: 4 minutes

¿De dónde viene el sesgo de género de la IA?

 

Para la gran mayoría de nosotros, la inteligencia artificial es un mundo complejo, oscuro e inescrutable. Confiamos ciegamente en los matemáticos y científicos de datos que lo desarrollan y lo entienden. La ciencia ficción es probablemente lo primero que viene a la mente, pero la esencia de la IA es desarrollar sistemas informáticos que puedan realizar tareas que antes se pensaba que requerían inteligencia humana. Necesitamos separar la exageración de la realidad.

 

Históricamente, la IA y el aprendizaje automático han enfrentado críticas por el sesgo inherente. Los algoritmos de aprendizaje automático procesan grandes cantidades de datos y se basan en información precisa al igual que la inteligencia humana. Son los humanos quienes generan, recopilan y etiquetan los datos que se incluyen en los conjuntos de datos, y son los humanos quienes determinan de qué conjuntos de datos, variables y reglas aprenden los algoritmos para hacer predicciones. Ahí yace el problema. Según un artículo de Stanford Social Innovation Review, «ambas etapas pueden introducir sesgos que se incrustan en los sistemas de IA».

 

La brecha digital de género

 

El sesgo de género algorítmico es un reflejo del mundo en el que vivimos. El Informe Mobile Gender Gap Report 2021 de GSMA destaca que las mujeres tienen un 7 % menos de probabilidades que los hombres de poseer un teléfono móvil y un 15 % menos de probabilidades de usar Internet móvil. También hay 234 millones menos de mujeres que de hombres que acceden a Internet móvil. El hecho de que las mujeres tengan menos acceso a estas tecnologías significa que no están generando la misma cantidad de datos que los usuarios masculinos, lo que inherentemente sesga los conjuntos de datos. También hay una falta crónica de mujeres que optan por carreras en ciencia de datos, lo que tiene múltiples efectos adversos. Según el Instituto Europeo para la Igualdad de Género, «en la UE y el Reino Unido, solo el 16 % de quienes trabajan en IA son mujeres y las mujeres con más de 10 años de experiencia representan solo el 12 % de los profesionales de IA».

 

“Las mujeres se están perdiendo las enormes oportunidades de un trabajo bien remunerado en un campo apasionante y de rápido crecimiento; la tecnología se está desarrollando sin el aporte de las mujeres, lo que significa que con demasiada frecuencia no logra satisfacer las necesidades de las mujeres o, sin darse cuenta, exacerba las brechas de género existentes; y la ausencia de mujeres en el sector tecnológico está dando como resultado una falta de profesionales tecnológicos calificados”. Doreen Bogdan-Martin, Directora de la UIT, sobre la brecha digital de género

 

 

¿Cuáles son los impactos potenciales del sesgo de género algorítmico?

 

Los sistemas de IA basados en datos incompletos o sesgados pueden dar lugar a resultados inexactos que infringen los derechos fundamentales de las personas, incluida la discriminación. Este artículo de Stanford Social Innovation Review enumera una serie de ejemplos de la «vida real» que destacan la omnipresencia del sesgo de género en la IA y los impactos sociales negativos que puede producir:

 

  • Salud. Los cuerpos masculinos han sido el estándar para las pruebas médicas durante siglos. Dado que los cuerpos femeninos se consideran demasiado complejos y variables, las mujeres a menudo no participan en los ensayos médicos, lo que puede generar riesgos para la salud.
  • Infraestructura. Pocos conjuntos de datos urbanos rastrean y analizan datos sobre género, por lo que los edificios a menudo no están diseñados para tener en cuenta las necesidades de las mujeres.
  • Crédito al consumo. Los primeros procesos utilizaron el estado civil y el género para determinar la solvencia. Cuando los sistemas de IA aprenden de los datos históricos, detectan patrones de mujeres que reciben límites de crédito más bajos que los hombres y reproducen las mismas desigualdades.
  • Identidad. La mayoría de los datos demográficos están etiquetados sobre la base de categorías binarias de mujeres y hombres. Cuando el género se simplifica de esta manera, reduce el potencial de que la IA refleje la fluidez de género y las identidades de género matizadas y puede dar lugar a un tratamiento ofensivo o a la eliminación de grupos ya marginados.
  • Reconocimiento facial. Los sistemas comerciales de reconocimiento facial a menudo usan conjuntos de datos de imágenes que carecen de muestras diversas y representativas. El uso del binario de género en la clasificación de género genera una visión inexacta y simplista del género.
  • Reclutamiento. Los algoritmos entrenados con datos sesgados pueden perpetuar las prácticas de contratación discriminatorias, lo que lleva a que los CV de las mujeres se descarten automáticamente porque su perfil no se ajusta al de los empleados anteriores, un problema en una industria dominada por hombres.
  • Bienestar. Los sistemas con sesgo de género utilizados en el bienestar pueden suponer un perjuicio para el bienestar físico y mental de las mujeres y las personas no binarias, discriminándolos automática e injustamente y excluyéndolos de los mecanismos de apoyo esenciales.
  • Internet de las Cosas. Los sistemas de reconocimiento de voz, cada vez más utilizados en la industria automotriz, por ejemplo, a menudo funcionan peor para las mujeres y las personas no binarias.
  • Traducción. El software de traducción que aprende del texto en línea históricamente ha tomado términos de género neutro (como “el doctor” o “la enfermera” en inglés) y devuelto traducciones de género (como “el doctor” y “la enfermera”, respectivamente, en inglés). Español). Esto refuerza los estereotipos y prejuicios dañinos existentes.

 

 

¿Cómo podemos abordar el sesgo de género en la IA?

 

Para un problema tan omnipresente, necesitamos un enfoque integral tanto del sector público como del privado. A continuación se presentan cuatro principios básicos, recopilados de nuestro informe Sesgo de género en los datos: hacia la igualdad de género en el bienestar digital.

 

Conjuntos de datos y estadísticas relevantes para el género

– Usar prácticas de datos feministas y conjuntos de datos relevantes de género para desafiar las estructuras de poder patriarcales y la clasificación binaria de género.

– Valorar múltiples formas de conocimiento y múltiples perspectivas.

– Contextualizar los datos dentro de realidades culturales y socioeconómicas más amplias.

Incorporación de la perspectiva de género

– Garantizar que la diversidad sea una prioridad al desarrollar estructuras de gobernanza de la ética de la IA.

– Incorporar la perspectiva de género en las políticas, prácticas y estructuras.

– Abogar por la alfabetización en IA entre expertos en género y viceversa.

– Priorizar la equidad de género como objetivo principal de los sistemas de IA.

Co-diseño, supervisión y retroalimentación

– Incorporar la diversidad de género, la equidad y la inclusión entre los equipos que desarrollan sistemas de IA.

– Incluir mujeres y grupos marginados en el diseño y la retroalimentación.

– Evaluar los conjuntos de datos para detectar la infrarrepresentación de las diferentes identidades y desigualdades de género.

– Practicar el análisis de género para captar el statu quo y la evaluación del impacto de género para evaluar los posibles impactos.

Igualdad por defecto

– Resolver las barreras digitales de género

 

También puede consultar los siguientes recursos clave para obtener más información:

https://www.gsma.com/betterfuture/resources/ethicsplaybook

https://en.unesco.org/system/files/artificial_intelligence_and_gender_equality.pdf