La inteligencia artificial (IA) está generando una transformación en nosotros y en nuestro mundo. Si bien sus aplicaciones son amplias y puede contribuir de manera positiva a solucionar problemas complejos, como por ejemplo la detección de enfermedades y la identificación de contenido virtual abusivo y violento contra las niñas y mujeres, también son muchos los dilemas que surgen frente a su uso. Entre estas preocupaciones se encuentran los sesgos de género presentes en estas tecnologías avanzadas.
Estamos evidenciando cómo la IA se ha convertido en un espejo que refleja las desigualdades existentes en nuestras sociedades, reiterando diferencias y estereotipos basados en género, etnicidad, raza, clase social, lugar de origen, entre otros. Al manifestarse en la IA, estas desigualdades tienen el potencial de crear nuevas formas digitales de inequidad que alimentan y refuerzan los sesgos actualmente presentes, muchos de los cuales son inconscientes.
¿Qué son los sesgos de género en la IA?
Son prejuicios, estereotipos o desviaciones sistemáticas basados en el género que se reflejan en los resultados arrojados por esta tecnología. Los datos con los que se entrenan a los modelos de IA son la fuente a partir de la cual aprenden y crean nueva información (IA Generativa). Si estos datos no son equitativos, se pueden perpetuar estos sesgos y dar lugar a resultados desiguales, distorsionados y discriminatorios. Por ejemplo, podrían exacerbar desigualdades existentes tanto en la forma en la que se nombra el género, como en la asociación estereotipada de habilidades y profesiones.
¿Cómo se manifiestan los sesgos de género en la IA y cómo nos afectan?
La mayoría de la tecnología disponible actualmente incorpora herramientas con algún tipo de IA. Dado que los modelos detrás de estas herramientas se alimentan de información que puede contener sesgos, como los textos de literatura, podemos encontrar varios ejemplos de discriminación de género que se hacen presentes en diversos ámbitos, como la publicidad en línea, los sistemas de recomendación y la traducción automática de idiomas, entre otros.
Los sesgos de género en la IA pueden perpetuar desigualdades y discriminaciones históricas con implicaciones tales como toma de decisiones injustas, exclusiones sistemáticas o falta de igualdad de oportunidades. Además, pueden contribuir a la consolidación y permanencia de normas de género restrictivas en la sociedad.
Las causas de los sesgos de género en la IA
Entre las razones que contribuyen a la existencia de sesgos de género en la IA encontramos:
- Sesgo en los datos de entrenamiento: si los datos utilizados para entrenar un modelo de IA están sesgados hacia ciertos géneros, el modelo aprenderá y replicará esos sesgos. Por ejemplo, si un modelo de procesamiento de lenguaje natural se entrena principalmente en textos escritos por hombres, puede tener dificultades para comprender o responder adecuadamente al otro sexo.
- Sesgo en las etiquetas o anotaciones: las etiquetas o anotaciones se refiere a la información adicional proporcionada a un modelo de IA para entrenarlo y evaluar su rendimiento. Esta información puede reflejar estereotipos de género, dando como resultado que el modelo reproduzca estos estereotipos en sus predicciones o respuestas.
- Sesgo en las presuposiciones de diseño: los algoritmos y modelos de IA a menudo están diseñados con ciertos supuestos sobre el comportamiento humano o las características de los datos. Si estas hipótesis están sesgadas hacia una perspectiva de género particular, el modelo puede mostrar sesgos en sus resultados.
- Amplificación de prejuicios sociales: si los datos históricos reflejan prejuicios o desigualdades de género, los modelos de IA pueden aprender y replicar estos patrones, lo que puede llevar a la amplificación de estos prejuicios en las predicciones o decisiones del modelo.
- Falta de diversidad en los equipos de desarrollo: Si los equipos que desarrollan y entrenan los modelos de IA carecen de diversidad de género, es posible que no se aborden adecuadamente los sesgos de género en el proceso de desarrollo.
¿Cómo combatir los sesgos de género de la IA aplicada a proyectos de desarrollo?
Para combatir los sesgos de género en la inteligencia artificial, podemos empezar reconociendo que hablar de una objetividad o neutralidad en IA y sistemas robóticos es difícil, ya que estas tecnologías han sido programadas por seres humanos y construidas sobre cimientos de por sí sesgados. Esto se convierte en una oportunidad para que desde el Banco Interamericano de Desarrollo (BID) apoyemos a los gobiernos con herramientas y directrices que guíen a las agencias ejecutoras y clientes en la identificación de sesgos de género que puedan generar desigualdad y/o exacerbar formas de violencia en los proyectos, teniendo en cuenta que en algunos casos estos sesgos pueden ser involuntarios y/o inconscientes.
Nuestro Marco de Política Ambiental y Social (MPAS), junto con la Norma de Desempeño Ambiental y Social 9 (NDAS 9) y su respectiva guía, permiten identificar y mitigar los impactos relacionados con el género. Estas herramientas y directrices abarcan consideraciones legales e institucionales, la naturaleza de las medidas de mitigación y tecnologías propuestas, estructuras de gobernanza y legislación, así como factores relativos a la situación de estabilidad, conflicto o seguridad, de acuerdo al contexto cultural de cada país.
Además del reconocimiento de los sesgos inherentes a las personas, abordar los posibles impactos implica mirar los datos desde un punto de vista crítico de género, realizar auditorías con miras a eliminar sesgos en los modelos de IA, promocionar la diversidad e igualdad en la industria de la tecnología, y trabajar en la regulación gubernamental. Todo esto va de la mano del fortalecimiento institucional y de la asignación de responsabilidades.
IA al servicio del desarrollo sostenible
Los nuevos conocimientos y tecnologías moldean la forma en la que entendemos el mundo y aprendemos. En la era digital, la IA se ha convertido en una especie de arquetipo y en parte integral de nuestras vidas, con un amplio campo de usos en todas las áreas de conocimiento. Debemos aprovechar todas las oportunidades que nos brinda y ponerla a disposición del desarrollo sostenible. Sin embargo, no podemos olvidar que, al ser construida por seres humanos sesgados, la IA refleja y amplifica desigualdades sociales, por lo que puede desencadenar resultados discriminatorios.
Abordar estos sesgos es fundamental para evitar que las herramientas tecnológicas generen o aumenten desigualdades de género en los proyectos de desarrollo. Se requieren acciones para identificar y mitigar estos impactos, incluyendo una recopilación de datos equilibrada, auditorías de modelos y, crucialmente, la implementación de estándares de género, como la NDAS 9 de nuestro MPAS. La inclusión de estas normas y regulaciones gubernamentales son pasos esenciales para garantizar sistemas de IA más equitativos y justos que, a su vez, promuevan sociedades más equitativas y justas.
Leave a Reply