La toma de decisiones judiciales por algoritmos podría mejorar los resultados para los acusados

Un nuevo artículo del Quarterly Journal of Economics, publicado por Oxford University Press, concluye que la sustitución de determinadas funciones de toma de decisiones judiciales por algoritmos podría mejorar los resultados para los acusados al eliminar algunos de los sesgos sistémicos de los jueces.

Los responsables políticos toman decisiones basadas en predicciones de resultados desconocidos. Los jueces, en particular, toman decisiones sobre si conceder o no la libertad bajo fianza a los acusados o cómo sentenciar a los condenados. En la actualidad, las empresas utilizan cada vez más modelos basados en el aprendizaje automático en decisiones de alto riesgo. Hay varios supuestos sobre el comportamiento humano que subyacen al despliegue de estos modelos de aprendizaje que se ponen en práctica en las recomendaciones de productos en Amazon, el filtrado de spam del correo electrónico y los textos predictivos en el teléfono.

Los investigadores desarrollaron aquí una prueba estadística de uno de estos supuestos de comportamiento, si los responsables de la toma de decisiones cometen errores sistemáticos de predicción, y desarrollaron además métodos para estimar las formas en que sus predicciones están sistemáticamente sesgadas. Analizando el sistema de prisión preventiva de la ciudad de Nueva York, la investigación revela que una parte sustancial de los jueces comete errores sistemáticos de predicción sobre el riesgo de mala conducta antes del juicio dadas las características del acusado, incluyendo la raza, la edad y el comportamiento anterior.

En la investigación se utilizó información de jueces de la ciudad de Nueva York, que son asignados de forma casi aleatoria a casos definidos en la sala de vistas asignada por turno. El estudio comprobó si las decisiones de puesta en libertad de los jueces reflejan creencias precisas sobre el riesgo de que un acusado no comparezca a juicio (entre otras cosas). El estudio se basó en información sobre 1.460.462 casos de la ciudad de Nueva York, de los cuales 758.027 fueron objeto de una decisión de libertad provisional.

El trabajo derivó una prueba estadística para determinar si un responsable de la toma de decisiones comete errores sistemáticos de predicción y proporcionó métodos para estimar las formas en que las predicciones del responsable de la toma de decisiones están sistemáticamente sesgadas. Mediante el análisis de las decisiones de puesta en libertad antes del juicio de los jueces de la ciudad de Nueva York, el documento estima que al menos el 20% de los jueces cometen errores sistemáticos de predicción sobre el riesgo de mala conducta del acusado dadas las características del acusado. Motivado por este análisis, el investigador estimó aquí los efectos de sustituir a los jueces por reglas de decisión algorítmicas.

El trabajo constató que las decisiones de al menos el 32% de los jueces de la ciudad de Nueva York son incoherentes con la capacidad real de los acusados de pagar una fianza determinada y con el riesgo real de que no comparezcan a juicio. La investigación indica que cuando se tienen en cuenta tanto la raza como la edad del acusado, el juez medio comete errores sistemáticos de predicción en aproximadamente el 30% de los acusados que se le asignan. Cuando se tienen en cuenta tanto la raza del acusado como el hecho de que haya sido acusado de un delito grave, el juez medio comete errores sistemáticos de predicción en aproximadamente el 24% de los acusados que se le asignan.

Aunque el documento señala que la sustitución de los jueces por una regla de decisión algorítmica tiene efectos ambiguos que dependen del objetivo del responsable político (¿el resultado deseado es que se presenten más acusados a juicio o que haya menos acusados en la cárcel a la espera de juicio?

Según Ashesh Rambachan, autor principal del estudio, «los efectos de sustituir a los responsables humanos de la toma de decisiones por algoritmos depende de la disyuntiva entre si el humano comete errores sistemáticos de predicción basados en la información observable de que dispone el algoritmo o si el humano observa alguna información privada útil». «El marco econométrico de este trabajo permite a los investigadores empíricos aportar pruebas directas sobre estas fuerzas contrapuestas».

REFERENCIA

Identifying Prediction Mistakes in Observational Data