Banco Interamericano de Desarrollo
facebook
twitter
youtube
linkedin
instagram
Abierto al públicoBeyond BordersCaribbean Development TrendsCiudades SosteniblesEnergía para el FuturoEnfoque EducaciónFactor TrabajoGente SaludableGestión fiscalGobernarteIdeas MatterIdeas que CuentanIdeaçãoImpactoIndustrias CreativasLa Maleta AbiertaMoviliblogMás Allá de las FronterasNegocios SosteniblesPrimeros PasosPuntos sobre la iSeguridad CiudadanaSostenibilidadVolvamos a la fuente¿Y si hablamos de igualdad?Inicio
Administración pública Agua y saneamiento Ciencia, tecnología e innovación Comercio e integración regional Conocimeinto Abierto Desarrollo infantil temprano Desarrollo urbano y vivienda Educación Energía Género y diversidad Impacto Industrias Creativas Medio ambiente, cambio climático y Salvaguardias Política y gestión fiscal Salud Sin Miedos Trabajo y pensiones
  • Skip to main content
  • Skip to secondary menu
  • Skip to primary sidebar
  • Skip to footer

Ideas que Cuentan

  • INICIO
  • CATEGORIAS
    • Economía del comportamiento
    • Macroeconomía y Finanzas
    • Microeconomía y competitividad
    • Medio ambiente y cambio climático
    • Políticas e Instituciones
    • Temas sociales
  • autores
  • Inglés
Los algoritmos podrían acabar usándose para mejorar el sistema de justicia penal en América Latina.

¿Pueden los algoritmos mejorar el sistema de justicia penal?

November 5, 2019 by Patricio Domínguez 2 Comentarios


Aquella antigua idea de que la justicia es ciega, opera con bastante dificultad en la práctica. Diversas investigaciones muestran que en Estados Unidos, individuos pertenecientes a minorías son tratados desfavorablemente en diferentes etapas del sistema judicial donde, por ejemplo, los jueces exigen a acusados afroamericanos condiciones de fianza más severas  que a los blancos.

No sería extraño encontrar discriminaciones similares en algunos países de América Latina. Aunque aún no contamos con una sistemática revisión en la región, no es difícil creer que los bajos niveles de confianza en el sistema judicial tengan relación con un trato menos justo hacia algunos grupos de la población. Esto, además, puede estar relacionado con uno de los fenómenos de justicia más preocupantes de la región: el gran número de personas que se encuentran en detención preventiva.  Las cárceles están repletas de personas en espera de juicio, muchas de ellas pobres. El 36% de la población carcelaria en la región no ha recibido condena, cifra que supera el 50% en varios países, entre ellos Bolivia, Guatemala, Uruguay y Venezuela.

 Disparidades en el sistema de justicia penal

Una pregunta importante consiste en saber si sería posible eliminar discriminaciones injustas en el sistema judicial y garantizar que los jueces impartan justicia de manera consistente para evitar algunos de estos problemas. Existe un encendido debate sobre si mediante la inteligencia artificial y el uso de algoritmos se podría lograr esto.

Probar la existencia de un sesgo contra un determinado grupo no es sencillo. Sin embargo, investigaciones recientes han demostrado de forma creíble que las minorías en Estados Unidos reciben un trato injusto en ámbitos diversos como las multas por exceso de velocidad, o el hecho que frente a similar circunstancias, algunos grupos presentan una probabilidad mayor de encarcelamiento. Sorprendentemente, existe incluso evidencia de sesgo político en la imposición de penas.

Por otro lado, existen importantes problemas de consistencia que afectan la confiabilidad en el sistema judicial. Al igual que otros seres humanos, los jueces pueden verse  influenciados por factores ambientales, como la “fatiga por decisión,” que los hace más estrictos a la hora de conceder libertad condicional, si no han tenido la oportunidad de tomarse un descanso para comer. O el estrés emocional cuando, por ejemplo, dictan sentencias más largas después de que su equipo de fútbol favorito pierde un partido contra todo pronóstico.

¿Funcionan los algoritmos como una solución contra la discriminación?

En este contexto, algo tan aparentemente objetivo como la inteligencia artificial parece resultar muy prometedor. Después de todo, la mayoría de las personas han sido testigos del poder de los algoritmos para reconocer imágenes y procesar enormes cantidades de datos en décimas de segundos. Además, uno podría pensar que los algoritmos ofrecen un procedimiento transparente que puede estar sujeto a un escrutinio continuo, al menos por parte de un grupo de expertos. La pregunta entonces es si es posible aprovechar esta tecnología para mejorar la imparcialidad del sistema judicial.

Una limitación fundamental de los algoritmos es su capacidad de simplemente reproducir los prejuicios sociales observados en los datos. Como señalan Solon Baracas y Andrew Selbst en un reciente documento, un “algoritmo solo es tan bueno como los datos con los que trabaja”. Es decir, los datos pueden hacer que los algoritmos “hereden los prejuicios de los anteriores entes decisorios” o “simplemente reflejen los prejuicios generalizados que persisten en la sociedad en general”.

En parte, estas limitaciones provienen de las dificultades técnicas que son intrínsecas al uso de algoritmos en las ciencias sociales. Una de ellas tiene que ver con el tamaño de las muestras. Ello hace que, por ejemplo, grupos mayoritarios de la población sean representados con mayor precisión en los algoritmos debido a existen más datos sobre ellos que sobre otros grupos minoritarios. Asimismo, las diferencias culturales desempeñan un papel importante en la calidad de ajuste de los modelos ya que los patrones que son válidos para la población en general pueden no serlo para las minorías. Asimismo, la eliminación de estas diferencias resulta complicada porque rotular específicamente a los individuos de las minorías con el fin de mejorar el algoritmo puede ser objetable en sí mismo.

Un interesante estudio en Nueva York

A pesar de estas intrínsecas limitaciones, un reciente estudio ofrece una perspectiva interesante sobre cómo combinar el uso de algoritmos y big data con las decisiones de los jueces. Dicho estudio compara cómo hubiesen funcionado los algoritmos en el sistema judicial de la ciudad de Nueva York frente a las decisiones que realmente tomaron los jueces al determinar qué sospechosos debían ser liberados y cuáles debían ser encarcelados antes del juicio.

El estudio incluyó un diseño ingenioso. Ante la imposibilidad de observar la cantidad delitos que podrían haber cometido quienes fueron encarcelados, pero que pudieron haber sido puestos en libertad, los autores construyen un escenario contrafactual en el que comparan a sospechosos con perfiles muy similares que se enfrentaron a jueces levemente menos estrictos y que ante igualdad de antecedentes decidían dejarlos en libertad durante la espera del juicio. Al observar el registro posterior a la puesta en libertad de quienes fueron liberados por jueces indulgentes, los investigadores estiman cómo habría sido el comportamiento del grupo de personas que fueron encarcelados por jueces estrictos, en el caso que hubiesen sido puestos en libertad. De esta manera, comparan las decisiones de los jueces (otorgar detención preventiva o no) con aquellas generadas por un algoritmo de inteligencia artificial en poblaciones similares.

El estudio, en lugar de afirmar que es posible eliminar el sesgo, muestra que los algoritmos pueden ofrecer una valiosa contribución. De hecho, sus resultados sugieren que, de haber sustituido las decisiones de los jueces por el dictamen de un algoritmo, la cantidad total de delitos se habría reducido en un 24,7% sin cambios en los índices de encarcelamiento, o su contraparte, que los índices de encarcelamiento podrían haberse reducido en un 41,9% sin un aumento en los índices de delincuencia. Además, esos resultados podrían haberse logrado aun cuando los algoritmos redujeron las disparidades que afectan negativamente a los afroamericanos y a los latinos.

Los jueces enfrentan decisiones difíciles cuando toman decisiones sobre la libertad de las personas. Por un lado, si liberan a los sospechosos corren el riesgo de que estos cometan más delitos, huyan o amenacen a los testigos. Por otro lado, si los retienen pueden poner en riesgo los empleos de los sospechosos, crear traumas financieros y psicológicos para ellos y sus familias, e incluso aumentar la posibilidad de que sean condenados, especialmente a través de declaraciones de culpabilidad.

América Latina probablemente no tiene suficientes datos complejos o no cuenta con muestras lo suficientemente grandes como para empezar a utilizar la inteligencia artificial en las decisiones de los tribunales de manera inmediata. Pero puede empezar a recopilar datos de mayor calidad a nivel de casos individuales, desarrollar modelos para la inteligencia artificial y probar su desempeño en relación con los jueces en simulaciones similares a las realizadas en el estudio de Nueva York.

Un caso interesante se está llevando a cabo en Colombia, donde ya se han replicado varios de los resultados observados en Nueva York. Las estimaciones se están utilizando ahora para orientar a los fiscales a promover un uso más eficiente de las prisiones, deteniendo antes de los juicios solo a quienes representan un mayor riesgo para la sociedad. Si bien aún quedan muchas preguntas abiertas, debemos estar atentos a cómo éstas u otras herramientas nos permitan revertir la costosa y contraproducente práctica de retener a un gran número de personas en detención preventiva.

 


Archivado Bajo:Políticas e Instituciones, Temas sociales Etiquetado con:#algoritmos, #BigData, #carceles, #fianza, #InteligenciaArtificial, #jueces, #justicia, #sentencias, #SistemaJudicial

Patricio Domínguez

Patricio Domínguez es Economista investigador en el Departamento de Investigación del Banco Interamericano de Desarrollo. Obtuvo su doctorado en Políticas Públicas en la Universidad de California, Berkeley, donde obtuvo también un Máster en Políticas Públicas en la Goldman School of Public Policy. Previamente trabajó en Techo-Chile, donde se desempeñó como Director Nacional 2009-2011. Ha sido profesor de diversos cursos en la Facultad de Ingeniería Civil y de Ciencias Sociales de la Pontificia Universidad Católica de Chile, donde previamente obtuvo el título de Ingeniero Civil en Transportes y un Máster en Sociología. Su agenda de investigación se enfoca en el uso de técnicas econométricas aplicadas y uso de datos administrativos a la comprensión de políticas sociales. Sus áreas de interés comprenden problemas asociados a la evaluación de programas sociales, y más recientemente, fenómenos asociados a la economía del crimen y la justicia criminal.

Reader Interactions

Comments

  1. Maria Sanchez dice

    November 6, 2019 at 4:47 pm

    Super interesante, siempre he creido que el hecho de que se aplique un Sistema de justicia estadounidense a Latinos nacidos y criados en Latinoamerica es de alguna manera injusto, porque los sistemas de justicia son disenados de acuerdo al tipo de Sociedad al que sera aplicado, Seria bueno desarrollar un analisis sobre estos casos en particular, cuando personas son extraditadas y juzgadas en un Sistema de justicia distinto al de sus paises.

    Reply
  2. Federico Tomás Manzanares dice

    November 6, 2019 at 11:28 pm

    Buenas tardes Patricio! Me gusta la temática que tratas y estoy de acuerdo con tu visión sobre varios puntos, sobre todo, en si realmente la administración pública a través de las fuerzas de seguridad, y la Justicia, estarían en condiciones de aprovechar estas herramientas tecnológicas para mejorar el sistema y lograr cambios cualitativos en la calidad de vida de las comunidades. Anne Milgram, ex Fiscal Federal de EE.UU, explica a través de un TED el cambio que se ha logrado en la Justicia Criminal, conformando equipos de trabajo con los mejores, y basándose en “evidencia estadística” para reducir los índices del delito. https://www.ted.com/talks/anne_milgram_why_smart_statistics_are_the_key_to_fighting_crime?language=es
    Considero que esta herramienta podría ser esencial para el desarrollo de políticas públicas de Estado, que hacen a la seguridad ciudadana. Estas tecnologías según los Objetivos de Desarrollos Sostenibles de la ONU, deben ser sean inclusivas, fundamentalmente cuando se trata de minorías, de grupos vulnerables o que no estén suficientemente representados, y hay que tener en cuenta que al trabajarse con la automatización y predicción en un universo de personas que por lo general comparten los mismos valores, usos y costumbres, podrían llegar a cometerse errores de cálculo algorítmico al aplicarse algún sesgo, y/o que dejara afuera del sistema de protección a sujetos que no cuadran en aquellos parámetros. Creo que con la IA y el Big Data aún tenemos un largo camino por recorrer. Gracias, Federico Tomás Manzanares (Arg).

    Reply

Leave a Reply Cancel reply

Your email address will not be published. Required fields are marked *

Primary Sidebar

SÍGUENOS

Suscríbete

Búsqueda

Artículos relacionados

  • Crimen y castigo: la independencia judicial en América Latina
  • Crimen y castigo: la independencia judicial en América Latina
  • ¿América Latina se puede subir al tren de la inteligencia artificial?
  • ¿Puede América Latina y el Caribe liberar el potencial de la inteligencia artificial y mitigar sus riesgos?
  • La verdad sobre la reforma judicial

Acerca de este blog

El blog del Departamento de Investigación del BID comparte ideas que cuentan para las políticas públicas y el desarrollo en América Latina y el Caribe.

Footer

Banco Interamericano de Desarrollo
facebook
twitter
youtube
youtube
youtube

    Blogs escritos por empleados del BID:

    Copyright © Banco Interamericano de Desarrollo ("BID"). Este trabajo está disponible bajo los términos de una licencia Creative Commons IGO 3.0 Reconocimiento-No comercial-Sin Obras Derivadas. (CC-IGO 3.0 BY-NC-ND) y pueden reproducirse con la debida atribución al BID y para cualquier uso no comercial. No se permite ningún trabajo derivado. Cualquier disputa relacionada con el uso de las obras del BID que no se pueda resolver de manera amistosa se someterá a arbitraje de conformidad con el reglamento de la CNUDMI. El uso del nombre del BID para cualquier otro propósito que no sea la atribución, y el uso del logotipo del BID estarán sujetos a un acuerdo de licencia escrito por separado entre el BID y el usuario y no está autorizado como parte de esta licencia CC-IGO. Tenga en cuenta que el enlace proporcionado anteriormente incluye términos y condiciones adicionales de la licencia.


    Blogs escritos por autores externos:

    Para preguntas relacionadas con los derechos de autor para autores que no son empleados del BID, por favor complete el formulario de contacto de este blog.

    Las opiniones expresadas en este blog son las de los autores y no necesariamente reflejan las opiniones del BID, su Directorio Ejecutivo o los países que representan.

    Atribución: además de otorgar la atribución al respectivo autor y propietario de los derechos de autor, según proceda, le agradeceríamos que incluyera un enlace que remita al sitio web de los blogs del BID.



    Política de privacidad

    Copyright © 2025 · Magazine Pro on Genesis Framework · WordPress · Log in

    Banco Interamericano de Desarrollo

    Aviso Legal

    Las opiniones expresadas en estos blogs son las de los autores y no necesariamente reflejan las opiniones del Banco Interamericano de Desarrollo, sus directivas, la Asamblea de Gobernadores o sus países miembros.

    facebook
    twitter
    youtube
    En este sitio web se utilizan cookies para optimizar la funcionalidad y brindar la mejor experiencia posible. Si continúa visitando otras páginas, se instalarán cookies en su navegador.
    Para obtener más información al respecto, haga clic aquí.
    x
    Manage consent

    Privacy Overview

    This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
    Necessary
    Always Enabled
    Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
    Non-necessary
    Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
    SAVE & ACCEPT