angle-left Así son los algoritmos que ayudan a impartir justicia
TUNGSTENO INNOVACIÓN

Así son los algoritmos que ayudan a impartir justicia

Estonia planea aplicar la inteligencia artificial en los tribunales; China vigila masivamente a la población con el reconocimiento facial; en EEUU, la computación ayuda a distribuir recursos sanitarios. La implantación de los algoritmos para la toma de decisiones, al tiempo que pretende mejorar los procesos, también presenta importantes sesgos y genera inquietud sobre su viabilidad.

La implementación de algoritmos en el sistema judicial permitirá automatizar los procesos y podría resolver disputas menores sin la intervención humana. Crédito: Sutterstock.

 

FRANCESCO RODELLA | Tungsteno

En el límite oriental de Europa, hay un lugar donde el pulso de la transformación tecnológica es particularmente acelerado: Estonia, un país ya pionero en lanzar servicios públicos virtuales como el voto por Internet o la gestión 100% digital de trámites administrativos. Ahora, el Gobierno también estudia utilizar la inteligencia artificial (IA) para que acompañe a jueces y juezas, con el objetivo de aliviar su carga de trabajo y automatizar algunos procesos. Se trata de uno de los proyectos actuales más llamativos de implementación de algoritmos para la toma de decisiones públicas, una idea que fascina, pero también genera dudas éticas. ¿Seremos capaces de usar las máquinas para mejorar nuestras sociedades sin que se escapen a nuestro control?

El plan de Estonia para su sistema judicial se empezó a conocer el año pasado. La revista digital Wired explicó que la intención de las autoridades del país báltico es implementar con pruebas piloto la IA para resolver disputas de un valor menor a 7.000 euros, y así reducir la acumulación de casos en los tribunales. El funcionamiento básico del sistema sería el siguiente: las partes suben la documentación a una plataforma digital, el algoritmo estudia el caso y emite una sentencia, apelable después ante un juez humano.

¿Pero podemos hablar de auténticos “jueces robots”, como sugieren algunos? Viljar Peep, alto funcionario del Ministerio de Justicia estonio, lo desmiente. “La expresión ‘juez de IA’ es engañosa’”, afirma. “Nosotros estamos ampliando la automatización de los procedimientos judiciales, lo que incluye el uso de la IA. Podemos hablar de robot-ayudante del juez, pero no de robot-juez. La IA no reemplazará nunca a un juez”.

Los algoritmos, según los planes del Ministerio de Justicia estonio, servirán para “simplificar procesos de trabajo”, por ejemplo, para realizar las transcripciones de las audiencias. En términos más generales, la idea es “pasar del procesamiento de documentos al procesamiento de datos”, detalla Peep. “Como resultado, la máquina podrá leer el trabajo de los jueces y secretarios judiciales”, agrega. “Estos cambios nos darán nuevas oportunidades para analizar la información”.

Los algoritmos que ya se han testado para calcular el riesgo de reincidencia delictiva o intentar predecir crímenes, evidencian importantes sesgos raciales. Crédito: Wikimedia Commons.

Un movimiento “mundial”

Este proyecto, para el que Estonia todavía no ha establecido aún plazos de puesta en marcha oficial, no es el único existente en el ámbito público. “Hay un movimiento mundial de uso de técnicas de IA para las administraciones públicas”, asegura Nuria Oliver, doctora por el Media Lab del MIT (Instituto de Tecnología de Massachusetts). Entre los campos con más desarrollo actualmente, tal y como nos indica, están precisamente el de la justicia y seguridad pública, por ejemplo para calcular el riesgo de reincidencia delictiva o intentar predecir crímenes, y de la sanidad, un ámbito en el que los algoritmos pueden analizar ingentes cantidades de información médica para realizar diagnósticos, entre otros aspectos.

Es justamente la disponibilidad de grandes bases de datos “no estructurados”, como “imágenes, vídeos, textos, datos de sensores o pruebas médicas”, uno de los tres ingredientes claves para impulsar el uso de la IA en estos ámbitos, señala Oliver. Si a este elemento se le asocia la disponibilidad creciente de “computación a bajo coste” y “métodos de aprendizaje por ordenador” ya altamente complejos y sofisticados, se abre una “gran oportunidad” para “ayudarnos a tomar decisiones que afectan a miles o millones de personas”, completa la experta.

¿Qué ventajas nos traen las máquinas en contextos tan sensibles? “La historia frecuentemente nos recuerda el hecho de que los humanos no somos perfectos tomando decisiones”, responde Oliver: “los algoritmos en principio no son susceptibles a la corrupción, no son egoístas, no se cansan, no tienen un mal día”.

Ante la introducción de la IA en el sistema judicial, instituciones como la Comisión Europea han fijado principios éticos que rijan esta actividad para evitar sesgos y establecer límites. Crédito: Markus Spiske.

El gran dilema ético

Esa es la teoría, pero aterrizar en el terreno práctico no siempre es tan sencillo. En 2016 salió a la luz un caso polémico que se hizo célebre: el de COMPAS, un algoritmo utilizado en juzgados en Estados Unidos para predeterminar la probabilidad de que un sospechoso vuelva a delinquir, y así tener más elementos a la hora de evaluar cada caso. Una investigación periodística de ProPública evidenció que el programa aplicaba sesgos raciales: a las personas negras se les atribuía en varios casos una tasa de reincidencia más alta de lo correcto, y a las blancas, al revés, más baja.

Casos de este tipo han surgido también más recientemente: un estudio publicado en la revista Science el pasado octubre puso de manifiesto, por ejemplo, los sesgos raciales perjudiciales para los negros de un programa ampliamente utilizado en el sistema sanitario estadounidense para determinar qué pacientes necesitan recursos extra. Otra aplicación que genera preocupación es el uso masivo del reconocimiento facial basado en la IA para vigilar a la población en China, un instrumento que, según se ha documentado en investigaciones periodísticas, también sirve al Gobierno para reprimir a minorías étnicas y religiosas. Mientras tanto, esta tecnología se abre camino rápidamente también en Europa.

En ciertos contextos, “los algoritmos aprenden o incluso maximizan sesgos existentes en la sociedad”, resume Oliver, quien agrega que los problemas pueden surgir de distintas maneras: datos de partida que representan a los colectivos involucrados de forma injusta (también puede haber sesgos de género), softwares opacos para los que se desconoce cómo han obtenido un determinado resultado, violaciones de información personal a partir de datos públicos, interferencia de contenido no veraz, son todas posibilidades plausibles, según la experta.

Algunas instituciones lo están teniendo en cuenta. Una de ellas es la Comisión Europea, que fija en una guía los principios éticos necesarios para evitar esos problemas y hasta se plantea limitaciones. Entre sus criterios, indica la importancia de la supervisión humana, la necesidad de tener en cuenta la diversidad de los grupos sociales involucrados y “la rendición de cuentas de los sistemas de IA y de sus resultados”.

Estas instrucciones, junto a las del Consejo de Europa específicas para el ámbito judicial, son las que van a guiar al Gobierno de Estonia en la implementación de la IA en los tribunales, según indican fuentes ministeriales del país báltico. “Ambos documentos enfatizan la necesidad de evaluar a fondo las influencias en los derechos básicos antes de utilizar los sistemas de IA”, explican. “El entrenamiento de estos sistemas debe ser monitoreado cuidadosamente todo el tiempo”.

También el mundo de la investigación está moviéndose para buscar respuestas tranquilizadoras respecto a los dilemas éticos que generan inquietud, afirma Oliver, quien dice no tener “la menor duda” de que el impacto positivo de las nuevas tecnologías en la esfera pública puede ser “enorme”. Una de las perspectivas más interesantes, sugiere, es su aplicación “en situaciones donde la provisión tradicional de servicios públicos es muy deficiente”, como “países en desarrollo o zonas rurales”.

· — —
Tungsteno es un laboratorio periodístico que explora la esencia de la innovación. Ideado por Materia Publicaciones Científicas para el blog de Sacyr.

 

También podría gustarte

SÍGUENOS EN FACEBOOK

VIDEOS INNOVACIÓN

VIDEOS IFRIDAYS

CONTACTO SACYR

Condesa de Venadito, 7
28027 - Madrid (España)
Teléfono: +34 91 545 50 00

www.sacyr.com