Hace un siglo, el criminólogo Cesare Lombroso teorizó que nuestros rasgos faciales podrían determinar si somos delincuentes o no. Esta darwinista y positivista teoría estaba basada en la idea de que sólo podemos hacer inferencias válidas sobre el mundo al observarlo y medirlo, y más polémicamente aún, que algunas personas son menos evolucionadas que otras y por lo tanto más propensas a ser criminales. Estas personas, él sostuvo, deben de ser encarceladas. Hoy, las teorías sociales positivistas como la de Lombroso han sido desacreditadas.
¿O no?
Conforme generamos más datos y herramientas para analizar el mundo que nos rodea, nuestro creciente optimismo sobre lo que pueden alcanzar estas herramientas nos ha devuelto a preguntas de hace siglos: ¿Pueden realmente nuestras caras revelar si somos delincuentes? ¿Podemos analizar fotos y números para predecir quiénes van a ser criminales? ¿Quiénes van a ser víctimas? ¿Podemos usar números para elegir la pena “correcta”?
Con la llegada del “Big Data”, la inteligencia artificial, el aprendizaje automático y la visión por computador, cada vez más, la respuesta a estas preguntas es sí podemos – o quizás más exactamente, las computadoras pueden. Pero una pregunta más importante es: ¿Cuáles son las implicaciones de hacerlo?
Prevención y predicción de la violencia
No podemos hablar de implicaciones, sin primero considerar las aplicaciones. En el área de prevención del crimen, cada vez más surgen nuevos usos de tecnologías emergentes. En Nueva York, la Comisión Ciudadana contra el Crimen ha entrenado a computadores a detectar intercambios violentos en línea para identificar argumentos que pueden generar violencia en el mundo real, y luego intervenir antes de que esto suceda. También usan visión por computador como parte de programas de capacitación en línea para jóvenes marginados, lo que permite a las computadoras “saber” cómo la persona se siente o está reaccionando y personalizar las respuestas del programa.
La visión por computador también es un elemento clave detrás de las cámaras de seguridad que, cada vez más, los gobiernos instalan en ciudades alrededor del mundo. Algunas de estas cámaras están conectadas a bases de datos masiva de fotografías, permitiendo comparaciones de los rostros capturados en la calle con los de delincuentes.
El “Big Data” y los algoritmos complejos le han permitido a las policías predecir los puntos calientes de crimen en un día determinado y en un momento dado, lo que es conocido como “hotspot policing”. Incluso más específicamente, en lo que se conoce como “precision policing” o policionamiento preciso, las policías son capaces de predecir quienes son probables delincuentes y aparecen en sus casas antes de que cometan un crimen. Aparte de predecir quiénes son probables delincuentes, los investigadores están empezando a predecir quiénes pueden ser víctimas. Particularmente, cuando se trata de violencia doméstica (VD), el laboratorio del crimen de la Universidad de Chicago está desarrollando modelos para predecir quién está más en riesgo de ser víctima de VD.
Las herramientas para identificar puntos calientes de delincuencia, delincuentes y víctimas, todas usan algoritmos complejos que combinan múltiples fuentes y tipos de datos. Pero un estudio reciente intentó utilizar el aprendizaje automático y la visión por computador para discernir a los delincuentes de los no delincuentes simplemente por mirar sus fotos. Después de repetidas validaciones cruzadas y controlando por variables de edad, género y raza, los investigadores encontraron que, de hecho, a través del aprendizaje automático que analiza rasgos faciales, pueden hacer inferencias sobre la criminalidad con alrededor de 80% de exactitud.
Impartición de justicia
Si una computadora al “observar” una foto puede predecir si la persona es un criminal, no sería de extrañar que pronto las policías y los jueces utilicen esta tecnología para tomar decisiones sobre arrestos y condenas. De hecho, software, particularmente instrumentos de evaluación de riesgo, ya están informando decisiones en el sistema de justicia penal. Estos son principalmente utilizados para informar las decisiones sobre libertad condicional, el pago de fianza o para identificar los programas de rehabilitación más apropiados para una persona.
Pero los gobiernos han ido un paso más allá. En algunos estados de los Estados Unidos, los jueces utilizan herramientas de evaluación de riesgo para determinar penas. Mientras que tradicionalmente, las sentencias se determinan con base en el crimen cometido o en crímenes anteriores, estos instrumentos de evaluación de riesgo proporcionan un dato más: la probabilidad de que el individuo cometa un delito a futuro.
Las implicaciones
Mientras que no todos los países han adoptado estas tecnologías como parte de sus estrategias policiales y sistemas de justicia penal, las lecciones aprendidas de sus aplicaciones pueden servir como moralejas para los gobiernos que buscan adoptar estas tecnologías cada vez más.
Eficiencia y alcance. Las herramientas que ayudan a focalizar la asignación de recursos limitados en donde son más necesarios pueden aumentar la eficiencia y lograr mejores resultados. Esto es particularmente necesario en América Latina y el Caribe (ALC) donde los sistemas de justicia penal y las policías enfrentan limitaciones de recursos importantes. En las cortes, donde en los Estados Unidos y en América Latina, a menudo hay largos retrasos, las tecnologías que apoyan la toma de decisiones pueden acelerar el proceso. En términos de alcance, estas tecnologías también permiten analizar cantidades masivas de datos que de otro modo serían imposibles de interpretar, al igual que analizar patrones y tendencias detrás de intercambios que cada vez más están ocurriendo en línea.
Sesgo. Estas herramientas reducen algunos tipos de sesgos, pero no todos. Por ejemplo, en el caso de un juez, estas herramientas pueden reducir sesgos relacionados con sus experiencias, edad, género, orientación sexual o incluso su estado anímico al final del día. Sin embargo, detrás de estos softwares y algoritmos que evalúan riesgo para determinar penas, hay personas que toman decisiones subjetivas sobre qué datos incluir o no en el análisis. Algunas de estas herramientas incluyen cuestionarios a los delincuentes en los que se pregunta sobre el acto criminal, pero también sobre su nivel de educación, su comunidad y contactos anteriores con la policía. Si una persona creció en un barrio marginado, es más probable que tenga baja escolaridad, que conozca a personas involucradas en pandillas y que haya tenido contactos con la policía – y por lo tanto, el software concluiría, es más probable que vuelva a delinquir. La pregunta es: quiénes somos y dónde vivimos puede o debe ser causa de una pena mayor? ¿Se puede determinar nuestra sentencia por un delito que no hemos cometido? Muchos dicen que esto sería inadmisible ante un juez. Pero escondido en un algoritmo, no siempre se cuestiona.
Ciclos de retroalimentación negativa. Las predicciones hechas por muchas de estas tecnologías pueden convertirse en profecías autocumplidas, reforzando problemas estructurales que están profundamente arraigados en nuestras sociedades. Por ejemplo, es común que una persona que haya crecido en un barrio violento se clasifique como de alto riesgo de reincidir. Esta persona entonces irá a una prisión de alta seguridad con una pena más larga, que en sí misma, probablemente aumentará su probabilidad de volver a delinquir. Una vez liberada la persona, vuelve a su barrio y efectivamente es más propensa a cometer otro crimen y menos propensa a encontrar un trabajo. Esto, a su vez, refuerza la validez del modelo que calculó que esta persona volvería a delinquir, sin tener en cuenta que el resultado del modelo puede haber influido en sus probabilidades de reincidir.
Privacidad y vigilancia gubernamental. Mientras que la vigilancia gubernamental puede aumentar la sensación de seguridad y generar evidencia para investigaciones criminales, tiene algunas implicaciones peligrosas. Puede obstaculizar la democracia si se utiliza para perseguir a opositores políticos y puede quebrantar la confianza entre los gobiernos y sus ciudadanos en los casos en los que se viola la privacidad de las personas. Si un oficial de policía aparece en la casa de un individuo porque tiene motivos para creer que la persona puede cometer un delito, debe de al menos haber esfuerzos claros para generar confianza y dar apoyo a la persona. El proceso de construcción de seguridad no debe de arriesgar la confianza y el respeto a los derechos de las personas.
Antes de apresurarnos a adoptar todas estas tecnologías, cabe hacerse una pregunta: ¿El hecho de que tenemos el conocimiento y las herramientas para hacer algo, significa que debemos hacerlo? Dos ejemplos sugieren que deberíamos de pensarlo dos veces: aunque podemos crear bombas atómicas, la mayoría de los países se ha comprometido a dejar de hacerlo, y aunque podemos agregar música y letras móviles a nuestros sitios web, generalmente evitamos hacerlo. Mientras que muchas de estas tecnologías tienen aplicaciones prometedoras, no deben de seguir siendo incuestionables o impunes a la crítica, ya que también tienen serios efectos secundarios.
Foto: Flickr CC Surveillance – Jonathan McIntosh
Martín Roldán Dice
La frecuente complicidad que hay en México entre el crimen y las fuerzas de seguridad puede hacer que, en vez de prevenir el delito, la inteligencia artificial sirva para garantizar su comisión.