6 minutos de lectura.
Los riesgos de la inteligencia artificial (IA) se han vuelto un tema cada vez más recurrente y relevante dado que estas tecnologías llegaron para quedarse y están presentes de mil maneras en nuestra vida diaria. En este artículo rescatamos información importante sobre la IA, los riesgos que a nivel social se han asociado a ella, así como recursos para mitigarlos.
Sobre la inteligencia artificial
La adopción de la IA continúa creciendo a un ritmo sin precedentes a nivel mundial, algunos números que dan cuenta de esto se comparten en el reporte del 2022 de McKinsey sobre tendencias tecnológicas:
- Globalmente, la adopción de IA ha aumentado en un 56% entre 2015 y 2021.
- La velocidad de entrenamiento de los modelos de IA aumentó en 94.4% desde 2018.
- En comparación con el 2015, hay 30 veces más patentes presentadas usando esta tecnología.
La revolución que ha traído la inteligencia artificial se extiende también a la esfera social, ya que estas tecnologías pueden ayudar en el proceso de toma de decisiones y así generar políticas más igualitarias y eficientes. No solo eso, un uso responsable de la IA podría mejorar nuestros empleos, servicios de salud, calidad educativa, etc. Desde que se empezó a hablar del potencial para mejorar el bienestar social que tiene la IA, muchos gobiernos y emprendedores han dirigido su atención hacia la solución de un sinnúmero de problemas sociales y creación de políticas públicas efectivas.
¿Cuáles son los riesgos de la inteligencia artificial?
El uso de sistemas de inteligencia artificial en los procesos de toma de decisiones conlleva ciertos riesgos debido a los potenciales impactos directos o indirectos de la implementación de estas tecnologías. Algunos de estos riesgos incluyen:
- La filtración de los datos personales que pueden comprometer el bienestar de las personas.
- La extrema vigilancia y posterior manipulación por parte de las organizaciones privadas o gubernamentales con acceso a la información que alimenta a las tecnologías de inteligencia artificial.
- Las “cámaras de eco” o “filtros burbuja” que se presentan cuando se está expuesto a las mismas ideas, noticias y/o hechos, lo que es un fenómeno común entre los usuarios de redes sociales y termina fortaleciendo sesgos preconcebidos. Esto es específicamente peligroso entre los tomadores de decisiones en cualquier área, pero aún más entre aquellos que trabajan en políticas públicas.
- La subrepresentación en los modelos creados por la inteligencia artificial, especialmente en cuestiones relacionadas al acceso a la salud y a la educación.
- Tener la información y no un plan de acción. Tan importante es contar con la información necesaria para abordar una problemática social, como haber desarrollado una hoja de ruta para solucionarla.
Afortunadamente, este tipo de riesgos pueden anticiparse y mitigarse si nos aseguramos de que los implicados en el desarrollo y uso de estas tecnologías establezcan protocolos claros para cada etapa de su ciclo de vida. Este enfoque facilita la organización del debate y la identificación de los riesgos específicos asociados a cada etapa, cuando dada la naturaleza iterativa de la IA, un enfoque lineal no es adecuado.
Soluciones para los riesgos de la inteligencia artificial
A nivel regional, el BID, a través de su iniciativa fAIr LAC, ha colaborado con los gobiernos de América Latina y el Caribe (ALC) para promover el uso y la adopción responsable de la IA. En respuesta al trabajo realizado con el sector público y privado, fAIr LAC también ha centrado esfuerzos en el desarrollo de recursos para generar consciencia sobre los beneficios potenciales y también sobre los grandes riesgos que conlleva la inteligencia artificial. Estos recursos incluyen, no sólo documentos generales, sino también herramientas específicas para llevar los principios de estas tecnologías a la práctica.
El más reciente recurso es fAIr LAC a la mano, donde se encuentran 5 herramientas abiertas y disponibles para quienes lideren proyectos que usan IA y para equipos que directamente desarrollen soluciones y quieran cumplir con principios éticos y de reducción de riesgos:
- Una autoevaluación ética para sistemas desarrollados en agencias de gobierno. Esta herramienta es un cuestionario que revisa los aspectos más importantes que se deben tener en cuenta para mitigar potenciales riesgos éticos tanto en la fase de diseño como en el desarrollo de una solución de IA.
- Como espejo, una autoevaluación para el ecosistema emprendedor dirigido tanto empresas que usan IA en sus servicios como a las que lo desarrollan.
- Un manual para quien esté dirigiendo, desde una entidad pública, un proyecto que use sistemas de soporte de decisión. Es una guía práctica que acompaña a los responsables de formular proyectos con IA en las diferentes etapas de decisión, y también los alerta sobre los posibles riesgos éticos asociados que deben tener en cuenta durante el diseño, desarrollo y validación del modelo, así como en su posterior despliegue y monitoreo.
- Un manual para el equipo técnico encargado del desarrollo del modelo. Utilizando el ciclo de vida de los sistemas de IA como marco de análisis, el manual ofrece orientación técnica a los directores de proyecto, así como a los equipos desarrolladores del modelo (a los que llamamos el equipo técnico) para mejorar sus procesos de toma de decisiones y sus resultados en la construcción de una solución basada en IA.
- Y finalmente, pensando en el despliegue de una solución de IA y en la necesidad de rendición de cuentas, compartimos la Guía de auditoría algorítmica. En ella se resaltan las implicaciones y consecuencias que tiene el uso de sistemas automatizados en la toma o soporte de las decisiones que afectan a las personas, con el fin de entender la necesidad de implementar una auditoría y el proceso que esta conlleva.
Todo complementado con el MOOC “¿Cómo hacer uso responsable de la inteligencia artificial?”, mismo que está pensado para funcionarios públicos que utilizan por primera vez estas tecnologías para responder a un problema de política pública. Es importante destacar que las herramientas siguen un proceso vivo de iteración y calibración a través de la práctica, y tienen siempre al ser humano en el centro. Solamente así aseguramos que efectivamente estamos promoviendo el uso ético de la IA que podrá mejorar vidas.
¿Conoces de algún proyecto que esté utilizando la IA para promover el bienestar social? Comparte tu experiencia en la sección de comentarios más abajo.
Por Cristina Pombo, coordinadora de fAIr LAC dentro del BID.
Lina Marcela Páez Rivera Dice
El uso responsable de la inteligencia artificial y la tecnológica es clave en los procesos de innovación pública de las organizaciones. En Colombia, el apalancamiento de las organizaciones en la tecnología para transformar la lógica de su actuar y la forma en que se crea y captura valor es un gran reto para los gerentes públicos. Además de los mencionados, considero que uno de los principales riesgos de transformar la manera en que se crea y captura valor en las organizaciones públicas, apalancado en el uso de IA y las tecnologías de la información, es la confusión que se genera entre la reinvención de los modelos de negocio y la adopción de tecnologías de la información para modificar procesos internos. Es decir, la reducción de los procesos de innovación a la simple adopción de tecnologías de información en la ejecución diaria de las actividades que sustentan la operación. En este sentido, es importante comprender que la adopción de tecnologías de la información no implica la transformación de la lógica de actuar y generar valor de la organización. Por el contrario, el uso de tecnologías de la información no representa el cambio de las organizaciones en sí mismo, las tecnologías son solo un facilitador, una capacidad importante para tomar decisiones acertadas.
Por otra parte, otro riesgo que implica la transformación de las organizaciones públicas, apalancada en las nuevas tecnologías de la información, es la ejecución del proceso de transformación con una pobre planificación previa, falta de objetivos y alcance claro, así como ausencia de estrategias de gestión del cambio. Estos elementos generan confusión en los demás directivos y trabajadores, problemas como resistencia al cambio, ausencia de cuestionamiento sobre la lógica convencional que sustenta el modelo de negocio que se pretende modificar y malinterpretación de la utilidad de las tecnologías de la información, pues el temor al cambio, la poca motivación y la falta de compromiso por parte de los trabajadores, conlleva a pensar que la modificación del actuar y forma de crear y capturar valor público mediante el uso de tecnologías, se realiza con el objetivo de disminuir costos y suprimir cargos, además de poner en riesgo los datos y generar pérdida de información.
Muy interesantes los riesgos de la inteligencia artificial y la tecnología que se proponen, así como sus posibles soluciones.
Diego Leopoldo Mejía Romo Dice
Saludos Cristina
Excelente artículo, la temática tratada por su desconocimiento o poco conocimiento a veces causa miedo, sin embargo es una herramienta fabulosa que trabajada con ética aportará a la solución de varias problemáticas, tanto sociales como en el campo técnico.
Pero si me surgen dudas, como: que pasará con nuestra privacidad?, ¿Cuál es el límite de la IA?, ¿Qué pasará con la docencia?, son algunas de las preguntas que quisiera que nos comentes.
Jorge Carpio Dice
Excelente artículo para exponer los riesgos de la IA. Creo que se podrían ampliar las alternativas de control y regulación facilitando la participación ciudadana. Sdos.