En 1942, las tres leyes de la robótica elaboradas por Isaac Asimov fueron pensadas para que un ser humano no sufra daños físicos a manos de un robot. La tecnología ha avanzado mucho desde su día, ahora que la inteligencia artificial (IA) es más que una nueva ola de tecnología. Es un híbrido único de datos, capital y trabajo, capaz de crear una fuerza productiva completamente novedosa e intervenir en varios otros aspectos de la vida. Frente a estos cambios a nuestro mundo, surgen muchos miedos y preocupaciones que podemos consolidar en al menos dos grandes preguntas: En “Algoritmolandia,” ¿será posible coexistir de una manera digna con los robots? y ¿podemos confiar en los algoritmos que harán decisiones sobre nuestras vidas?
Para mitigar los riesgos éticos de la inteligencia artificial, tenemos que tomar un rol más activo en su desarrollo
Responder a estos desafíos es posible a partir de un humanismo tecnológico que ponga a las personas como núcleo de los esfuerzos. Aunque suene paradójico: si desea poner al ser humano en el centro de las preocupaciones relacionadas con la inteligencia artificial en nuestras vidas, América Latina y el Caribe (ALC) no pueden dejar de diseñar una política de los robots que guíe su desarrollo de una manera competitiva, rigorosa y a la vez, holística. Esto sirve para minimizar las brechas no solamente entre humano y máquina, sino también entre persona y persona.
Aunque parezcan científicos y objetivos, los algoritmos están impregnados de subjetividad. La lógica de los algoritmos es inductiva. Analizan información pasada y sobre ella hacen predicciones, corriendo el riesgo de mantener el statu quo. ¿Son las enormes inequidades, los prejuicios y las desigualdades de género un estado que quisiéramos perpetuar? Claramente, no.
Por eso es importante que, desde América Latina y el Caribe, participemos en espacios de diálogo multilaterales que garanticen la gobernanza de una IA inclusiva en la región y en el mundo, y que formulemos estrategias que toman en cuenta los riesgos éticos de inteligencia artificial articulados. Actualmente existen múltiples manifiestos con más de 12.000 firmas de científicos, emprendedores y expertos mundiales que advierten los riesgos diversos de dejar decisiones libradas a procesos autónomos sin una adecuada supervisión. Estos son algunos ejemplos que buscan sentar las bases éticas para que la IA no acentúe las desigualdades:
“La tecnología no puede estar por encima nuestro”
El Instituto de Ingeniería Eléctrica y Electrónica (IEEE, por sus siglas en inglés) publicó un manifiesto con principios éticos para evitar que los sistemas autónomos no violen derechos humanos básicos ni produzcan tampoco daños al ambiente. La llamada “Carta de Copenhague”, suscripta por prestigiosos científicos, invita a compartir una visión de progreso que trascienda al concepto de innovación recordando que el ser humano debe estar en el corazón de cualquier acción tecnológica. “La tecnología no puede estar por encima nuestro”, subraya el texto.
En el mismo sentido se expresaron los manifiestos éticos difundidos por el Future of Humanity Institute, de la Universidad de Oxford, y por Future of Society, que cuenta con el apoyo de Harvard, que señalan los riesgos de aplicaciones militares de IA y abogan por una gobernanza global que brinde un marco ético.
“Aseguremos que los sistemas de IA cada vez más capaces a la vez sean más robustos y beneficiosos”
La Carta Abierta del Future of Life Institute fue firmada, entre otros, por Stephen Hawking, y propone promover estudios interdisciplinarios en IA porque su penetración social tendrá enormes impactos legales, económicos, sociales, filosóficos. Destaca la necesidad de desarrollar sistemas “robustos” o resilientes en temas de confianza y ciberseguridad. La mirada precisa ser holística.
“Deberíamos desarrollar métodos que detecten y corrijan los errores y sesgos, en vez de que se repliquen”
El sector privado tampoco tomó una actitud pasiva. Los gigantes tecnológicos IBM, Amazon, Facebook, Google, DeepMind y Microsoft crearon el Consorcio de IA al Beneficio de las Personas y la Sociedad (Partnership on AI to Benefit People and Society). Sus objetivos son empoderar a la mayor cantidad de gente en el uso de herramientas de IA y participar en el debate sobre sus consecuencias legales, éticas, sociales y económicas. Surgen entonces profundos dilemas relacionados a los derechos humanos, a la privacidad, y a la representación.
“Proporcionemos espacio para que las personas expresen sus preocupaciones y experiencias con el sesgo codificado”
Hay un proyecto en el laboratorio de medios del MIT (Media Lab) llamado Liga de la Justicia Algorítmica, que está comprometido con la justicia, la responsabilidad y la transparencia de los sistemas codificados. Este proyecto fue creado por la investigadora Joy Buolamwini, quién descubrió que las tecnologías de reconocimiento facial no eran capaces de detectar a su cara, supuestamente porque el desarrollo de esta tecnología no había tomado en cuenta datos para reconocer a las personas Afrodescendientes.
[su_youtube url=”https://youtu.be/KB9sI9rY3cA”]Como el presidente del MIT, Rafael Reif reflexiona sobre esta iniciativa, “Resulta crucial que los tecnólogos inviten a sus colegas a colaborar desde el inicio de la fase de diseño, no una vez que el producto ya está casi terminado. Cuanto más podamos unir a investigadores que reflejen toda la diversidad de la experiencia humana, más chances tendremos de minimizar los sesgos.”
Una oportunidad de fortalecer nuestros valores como humanos
La articulación de consensos es el arma más eficaz para combatir los nuevos riesgos que acompañan a la IA, a los que se suman riesgos de control, riesgos sociales, económicos y éticos que urge minimizar. Los algoritmos nos ponen a prueba y nos desafían a mejorar nuestros propios valores, evitando ser sesgados cuando interrogamos las fórmulas. Depende de nosotros crear las nuevas reglas de la cobotización, cánones más amplios para que los humanos no sean dañados en su dignidad con la pérdida de empleos. Los algoritmos pueden tomar decisiones desde sus cajas negras o facilitar el acceso a bienes y servicios de mayor calidad. Para evitar lo primero y estimular lo segundo, tenemos que ordenarnos sobre una base de criterios de calidad, confiabilidad, acceso y transparencia.
América Latina debe apoyarse en el factor humano, en el talento, la pasión, el trabajo en equipo, la creatividad y todas las virtudes donde somos superiores a las máquinas. No podemos medir nuestros éxitos y fracasos solo en términos de productividad ni maravillarnos por gadgets ingeniosos si los dividendos digitales no se encauzan para hacernos mejores como individuos, si la tecnología no se traduce en políticas públicas aptas para mejorar la vida de las grandes mayorías.
Por Gustavo Beliz, Director del Instituto para la Integración de América Latina y el Caribe (INTAL) del BID
Francisco Burgos Dice
Gustavo, muchísimas gracias por sus aportes. Cómo alguien interesado en educación desde una visión y praxis compleja, me parece que este artículo ofrece e integra elementos muy relevantes para la reflexión-acción.
ING. MARÍA GUADALUPE MAY NOVELO Dice
Muy interesante el contenido, adecuado para ejemplificar en clases de Taller de etica, actualmente la imparto y toca este tema.
Amelia Márquez de Pérez Dice
Creo que estaba haciendo falta un esfuerzo intelectual que vea la inteligencia artificial en su contribución para la inclusión, a fin de no seguir profundizando la brecha digital y por el contrario, aprovecharla para incluir a todos y todas.
Augusto Madueño Dice
Claro que podemos confiar en la ética de los algoritmos cuando el sistema automático debe decidir qué hacer en situaciones de alto riesgo, los procesos de test cada vez generan procedimientos autenticados mas robustos que permiten garantizar la seguridad.
Respecto a qué se puede hacer para abordar los problemas causados por los riesgos éticos de la inteligencia artificial es detectar y corregir aquellos aspectos en los que se estaría vulnerando la ética .
luz stella cardona ovalle Dice
Lo realmente importante es educar a las nuevas generaciones enfatizando el valor humano supremo sobre las máquinas…desarrolladas para coadyuvar a la raza humana. COADYUVAR no reemplazar y mucho menos poner en riesgo la especie humana.
Mabelis Rojas Dice
Indudablemente es importante establecer de forma rápida y clara las leyes por las cuales se rige la inteligencia artificial en la actualidad, por lo que me parece muy acertado este blog.
Hugo Vera Garcia Dice
Para controlar riesgos éticos, tal vez sea posible crear un software de simulación para que evalúe el modelo del algoritmo entrenado, y que detecte sesgos o cualquier falta ética. Una especie de certificación de calidad.
PAÚL GARCÍA Dice
Sin duda debe trabajarse no solamente de la mano de las grandes empresas que crean estas tecnologías, sino también con la comunidad de programadores, y los Estados, para que no se vulneren los derechos de los ciudadanos del mundo a través de esta tecnología, garantizando así las normativas pertinentes y de manera oportunas.
BEISA MARIA CARABALLO ZAMUDIO Dice
Hay un equilibrio ético entre el uso del big data para dar soluciones a problemas sociales que muchos países deben resolver. En algunos ejemplos que se muestran en “Big Data sin misterios”, hay un predictor de desatres, pero vemos como en Colombia hoy los diferentes medios de comunicacion reflejan el estado de vias, derrumbes e inundaciones, que a través del big data se querian predecir. La gobernanza es importante para que este tipo de proyectos sean eficaces, pero tambien lo son las redes de comunicación, por ejemplo empresas de comunicacion como movistar y claro no tienen buena señal en la region del Meta (Colombia), razón por la cual las metodologias de analisis de datos predictivos no funcionan.
ARCILO LENGUA VANEGAS Dice
Énfasis en la premisa The Future of life Institute. “Aseguremos que los sistemas de IA cada vez más capaces a la vez sean más robustos y beneficiosos”
La Carta Abierta del Future of Life Institute fue firmada, entre otros, por Stephen Hawking, y propone promover estudios interdisciplinarios en IA porque su penetración social tendrá enormes impactos legales, económicos, sociales, filosóficos. Destaca la necesidad de desarrollar sistemas “robustos” o resilientes en temas de confianza y ciberseguridad. La mirada precisa ser holística. . Llas posibles consecuecias legales, éticas, sociales y económicas que podría traer el avance de la Inteligencia Artificial. Los algoritmos nos anticipan en poner a prueba y nos desafían a mejorar nuestros propios valores, evitando ser sesgados cuando interrogamos las fórmulas. Depende de nosotros crear las nuevas reglas de la cobotización, para que los humanos no sean dañados en su dignidad con la pérdida de empleos. Los algoritmos en su dinámica tecnológica, desempeñan rol transformador, previsible, predictivo en facilitar el acceso a bienes y servicios de mayor calidad. Para evitar lo primero y estimular lo segundo, tenemos que ordenarnos sobre una base de criterios de calidad, confiabilidad, acceso y transparencia.
Miriam Rita Gagliardo Dice
Todo un desafío abierto, la inteligencia artificial parece no conocer límites y es necesario estar a la vanguardia, cuidar la ética y proteger a los ciudadanos del uso indebido. Todo uso para mejorar la vida de las personas bienvenido sea!
TATIANA YEPES Dice
Excelente articulo, nos pone a reflexionar como la tecnología hace parte de nuestras vidas diariamente sin que nos demos cuenta , creo que el reto es saber convivir y explotar al máximo lo que la IA nos ofrece para mejorar la calidad de vida de las personas y de todo ser vivo. Lo interesante seria validar como la IA podría ayudar a minimizar o mitigar el impacto ambiental, donde según los expertos nos queda menos 10 o 15 años para revertir el daño ocasionado. En cuanto a la ética de los algoritmos finalmente estos están dados por los humanos, la cuestión es como es la ética de los humanos?? donde hoy en día tiene mas valor lo material que la vida misma – es claro que se ha invertido la escala de valores de nuestra sociedad actual.
Ana Gabriela Dice
El vertiginoso desarrollo tecnológico a propiciado grandes avances en la Inteligencia Artificial, sin embargo es imprescindible y clave que todos estos desarrollos se realicen sobre la base de un humanismo tecnológico que ponga a las personas como núcleo de los esfuerzos y de esta manera centrarnos en la mitigación de riesgos éticos que conlleva este desarrollo.
Marisa Gonzalez Dice
Mi opinión personal es que la sociedad aun no está preparada para tanto avance tecnológico. Pienso que muchas veces la tecnología va mucho más rápida que la mentalidad de los consumidores.
Seguramente me equivoque pero el salto puede resultar peligroso, con tantas tareas mecanizadas y automatizadas, y el ser humano no logre “encajar en su espacio”
AL menos esa es mi opinión
un saludo
Marisa
Omar Oppedisano Dice
Reflexión pregunta 1 : En mi opinión considero que no podemos confiar en las decisiones de los algoritmos automáticos hasta no estar completamente seguros de que estos pueden tomar decisiones que perjudiquen al entorno en general, no solo debemos hablar de seres humanos en éste punto, también puede perjudicarse el medio ambiente, el reino animal, la vegetación y muchas cosas mas que se podrían detallar.
Reflexión pregunta 2 : Para abordar los riesgos éticos de la IA hay que lograr amplios consensos en lo relativo a éste punto antes de avanzar sin tomar las previsiones necesarias.
Antonio González Dice
En relación a las 2 preguntas de reflexión:
1) ¿Podemos confiar en la ética de los algoritmos cuando el sistema automático debe decidir qué hacer en situaciones de alto riesgo?
Debe existir validaciones que permitan garantizar la toma de desiciones ante situaciones de alto riesgo, de tal forma que se cuente con más de 1 nivel de aprobación para ejecutarlo, afín de garantizar los resultados a respuestas emitidas con dichos algoritmos.
2) ¿Qué se puede hacer para abordar los problemas causados por los riesgos éticos de la inteligencia artificial?
Debe existir un ente colegiado que regule y supervise el desarrollo y ejecución de la IA, para minimizar o eliminar los problemas éticos de la IA, no dejar todo a los algoritmos.
Gloria Patricia Barusso Dice
Excelente articulo, nos pone a reflexionar como la tecnología hace parte de nuestras vidas diariamente sin que nos demos cuenta , creo que el reto es saber convivir y explotar al máximo lo que la IA nos ofrece para mejorar la calidad de vida de las personas.
En cuanto a la ética de los algoritmos finalmente estos están dados por los humanos, la cuestión es como han cambiado los valores en la sociadad actual donde hoy en día tiene mas valor lo material que la vida misma –
Mauricio Fernando Leiva Dice
Publicación muy interesante para reflexionar .
1 .En las situaciones de alto riesgo primero se deberían realizar muchas pruebas para verificar que el resultado que se obtiene es de la decisión más adecuado, porque debemos tener en cuenta que las maquinas no tienen sentimientos.
2. En cuanto a los problemas causados por riesgos éticos de la IA es muy importante la supervicion por profesionales multidisciplinarios para poder tener una amplia mirada de cada situación. En base a los resultados las maquinas nos podrían ayudar a ser mas humanos.
Lucas Dice
Siendo que los aspectos eticos, fueron creados para delimitar las acciones, sean estas tendentes al bien, de igual manera en el campo de la AI esto debe ser un factor clave para evitar repercusiones futuras tipo guerra de las maquinas.
En la Pelicula Robot con el actor Will Smith, se crean varios conflictos eticos, el mas notable para mi es en la escena donde dos cocges caen al agua y will le pide al robot que salve a la nina del otro coche, sin embargo lo salvo a el ya que sus probabilidades de sobrevivir eran mayores, se deja de lado el aspecto sentimental hasta que punto es etico.
Irma Perez Guevara Dice
Mientras no exista un responsable físico o corporativo sobre los resultados de las decisiones tomadas por IA basados en la escogencia ( bibliotecas ) o desarrollo de los algoritmos que llevan a ellas o a que podamos garantizar que los datos y modelos no produzcan sesgos no debemos confiar en la ética de los algoritmos , menos si se basan en el aprendizaje no supervisado . .
Ahora bien no confiar no significa que queramos o podamos parar su desarrollo , debemos trabajar en que la regulación camine a mayor velocidad , sea hecha por grupos multidiciplinarios y pueda anteponerse al desarrollo de la tecnología .
Ariel Leon Dice
La llamada “Carta de Copenhagüe” que cita: “La tecnología no puede estar por encima nuestro”, parece sensato. Pero queda no muy claro para millones personas, el significado de “nuestro”, a manera de duda o temor, basado en las experiencias de exclusión y desventajas existentes en el mundo, muy obvias, que marcan la brecha entre quienes tienen la capacidad de pago para adquirir ventajas sobre los demás. Lo mismo ocurre entre países, están siempre primero y por encima, aquellos países que poseen mayor desarrollo y acceso a los avances tecnológicos, por tanto, su adaptación es mucho más viable y pronta que para los demás países. La in-equidad trasciende todo espectro del desarrollo protagonizado por la Humanidad. La duda justificada radica en que la referencia subrayada en “La Carta de Copenhague” lleva o no un significado oculto y “nuestro” se refiere a “propio” de grupos de poder o élites y no al ser humano como especie.
German Perez Cabrera Dice
Podemos confiar en los algoritmos siempre y cuando no intervengan en decisiones que perjudiquen a los humanos. Los algoritmos siempre tendran debilidades y como ya hemos leido, se basan en el analisis de datos pasados. Ahora bien, si se define un responsable en esas tomas de decisiones, entonces podemos ir abanzando en darle participacion.
David Dávila Dice
Considero que un algoritmo con problemas éticos que tome decisiones por nosotros causa menos daño que decisiones tomadas por politicos corruptos como los de américa latina. La respuesta esta en quien causa menos daño.
Javier Huaman Aragon Dice
Gracias por la publicación, es indudable el reto que tenemos en minimizar los riesgos éticos de la inteligencia artificial, un visionario como Asimov lo pudo entender con sus famosas leyes de la rebotica constituyéndose en punto de partida para entender y desarrollar principios éticos, para la voragine tecnológica actual en campos como la Inteligencia Artificial, Machine Learnig entre otros, los gobiernos, las grandes compañias de TI y tienen mucha responsabilidad tanto presente y futura para evitar conflictos éticos que puedan desencadenar en problemas sociales, culturales, económicos entre otros
Jose Francisco Pinto Castro Dice
¿Podemos confiar en la ética de los algoritmos cuando el sistema automático debe decidir qué hacer en situaciones de alto riesgo?
Pienso que la ética de los algoritmos no existe pues las personas con mas información suelen sacar beneficio de los que no tienen información. Aunque se pongan leyes que reglamenten esto.
¿Qué se puede hacer para abordar los problemas causados por los riesgos éticos de la inteligencia artificial?
Desde mi punto de vista el problema ético pasa por la formación que recibe el ser humano en su casa. Los padres influyen sobre el niño y eso define su forma de pesar.
Sergio Fodriuez Dice
Aunque el uso de la tecnología facilite nuestra vida y la implementación de algoritmos pueda incluir en la implantación de valores éticos del ser humano, se debe tomar en cuenta que el grado de responsabilidad y niveles de fallos que pueda presentar cada inteligencia artificial esta definido en la mayoría de los casos de una forma no adrede será necesaria siempre la ultima palabra del ser humano que toma de forma holística y usa su subjetividad para tener el mejor de los resultados o la corrección temprana de errores provocados por mala o deficiente interpretación de la programación de la inteligencia artificial sean provocadas por un entrenamiento necesario para poder evaluar situaciones fuera de lo común o que no se contemplaron,
Es tal la importancia de la mano humana que deberá tomarse en cuenta siempre, sea este por ser la autoridad o última palabra en la toma de decisiones en casos específicos
Sergio Rodríguez Dice
Aunque el uso de la tecnología facilite nuestra vida y la implementación de algoritmos pueda incluir en la implantación de valores éticos del ser humano, se debe tomar en cuenta que el grado de responsabilidad y niveles de fallos que pueda presentar cada inteligencia artificial esta definido en la mayoría de los casos de una forma no adrede será necesaria siempre la ultima palabra del ser humano que toma de forma holística y usa su subjetividad para tener el mejor de los resultados o la corrección temprana de errores provocados por mala o deficiente interpretación de la programación de la inteligencia artificial sean provocadas por un entrenamiento necesario para poder evaluar situaciones fuera de lo común o que no se contemplaron,
Es tal la importancia de la mano humana que deberá tomarse en cuenta siempre, sea este por ser la autoridad o última palabra en la toma de decisiones en casos específicos
María Laura Favaro Dice
Desarrollar mecanismos que puedan moverse en paralelo a la creación de nuevos algoritmos, incluso supervisar constantemente que el rumbo de los mismos no se posicionen en contra de los principios éticos preexistentes o los nuevos paradigmas sociales. Creo que el diseño de un sistema de supervisión constante sobre la coordinación entre los principios éticos y morales, y los criterios que hacen al funcionamiento de los algoritmos, es uno de los desafíos logísticos más importantes de la actualidad.
ROCIO Dice
El contacto directo entre el ser humano y este tipo de sistemas inteligentes ha incrementado la necesidad de trabajar en la implantación de códigos éticos que eviten que los dispositivos puedan llegar a convertirse en una amenaza para las personas.
Ricardo Dice
En ocasiones tomamos decisiones por instinto, es decir que no han sido premeditadas, por ejemplo al tratar de evadir un auto que aparece de pronto podemos girar hacia la izquierda, hacia la derecha, podemos frenar o pisar el acelerador a fondo. Nuestra capacidad de reacción es limitada y mientras más opciones de decisión tenemos más tardamos en reaccionar. Al programar no podemos preveer todas las posibilidades y al intentarlo podríamos saturar el programa con suficientes reglas de decisión, dada la capacidad de procesamiento, como para entorpecer su eficiencia y ocasionar un daño mayor. Me parece que se debe buscar la optimización para obtener los mejores resultados posibles, dadas las restricciones de capacidad de procesamiento, ya que tratar de cubrir todas las posibilidades no es factible.