Si no eres afrodescendiente probablemente no lo sabes, pero el reconocimiento facial falla especialmente al reconocer a personas afro. Por eso creo que me llamó tanto la atención cuando Google publicó un video para promocionar el Píxel 4, en el que aparece una mujer negra en una habitación oscura. Ella aproxima su cara al teléfono y este se desbloquea.
Por supuesto lo llamativo no era el desbloqueo, esa tecnología esta presente desde hace años. Lo novedoso era que lo hiciera con una mujer negra. Y el video parece decir que Google ha solucionado el problema. Lo que supongo que son buenas noticias, pero también nos deja unas reflexiones para el futuro, si es que decidimos continuar usando esta tecnología, que no está muy claro de momento. Recientemente, Amazon, IBM y Microsoft han decidido restringir o detener la venta de tecnología de reconocimiento facial. Ciudades con San Francisco o Cambridge, donde esta Harvard y el MIT, consideradas el corazón de la tecnología, también han prohibido su uso.
Algunas consideraciones:
- En la tecnología hay sesgos. Si no pueden reconocer las caras de mujeres afrodescendientes es porque no fueron incluidas en la base de datos para entrenar al algoritmo. Si no fueron incluidas es porque a los ingenieros no se les ocurrió. Y si no se les ocurrió es porque no viven en un “mundo” en el que sean representativas.
- ¿Como van a crear las bases de datos ahora? ¿Van a salir a escanear caras de personas de poblaciones diversas? ¿Suena extraño verdad? Medio distópico… No estoy en contra de que lo hagan, por el contrario, la tecnología debe ser inclusiva, pero hay que ser muy claros al determinar: 1) qué están recolectando, 2) de qué forma, 3) con qué consentimiento y a qué precio. Algo parecido a lo que se hace con las encuestas cuando se utilizan para fines científicos.
- Las formas son importantes y la preocupación justificada. Las poblaciones étnicas han sido vulneradas en demasiadas ocasiones. Esclavitud, encarcelamiento masivo, Jim Crow, experimentos médicos, hasta los episodios que describe Vargas Llosa en Tiempos Recios. Desde luego no sería la primera vez que se utilizan minorías para perfeccionar nuevas técnicas o tecnologías.
Ya llevamos hablando unos años de tecnología ética o justa. El del reconocimiento facial es un buen ejemplo de por qué esto se hace necesario. Para poder utilizar esta tecnología debemos hacerlo de una forma ética. Hace dos semanas habría terminado así este blog. Pero hace solo unos días Pratyusha Kalluri de Stanford y fundadora de la Radical AI Network publicó una columna en Nature en la que pide que se deje de hablar de tecnología justa o ética. Pide una aproximación mucho más radical, les cito:
Don’t ask if artificial intelligence is good or fair, ask how it shifts power
Pratyusha Kalluri
Propone que aquellos que tienen más posibilidades de ser perjudicados por la IA; es decir, las mujeres, los afrodescendientes, los pueblos indígenas, las personas con discapacidad y las personas con menores ingresos, participen en el diseño. No es sobre tecnología ética, es sobre darle el poder a los que están más afectados por su implementación. Les invito a que lo lean y si tienen ideas sobre como llevar esta aproximación a nuestra región escríbannos a [email protected].
Leave a Reply