TecnoXplora » Internet

TERMINATOR NO ES INVENCIBLE

El algoritmo no siempre supera al humano: este para prevenir la reincidencia criminal es un 'bluf'

La eficacia de un 'software' concebido para prevenir la reincidencia está en entredicho tras una investigación.

Cuando el algoritmo es un 'bluf': un programa para prevenir delitos que no supera al ser humano

perspective en Flickr bajo licencia CC Cuando el algoritmo es un 'bluf': un programa para prevenir delitos que no supera al ser humano

Publicidad

Lo primero de todo es decir que sí, que existe un programa predictivo de crímenes: se llama Compas y se usa en Estados Unidos. Aunque ahora dos investigadores han comparado sus vaticinios con los que harían humanos sin experiencia en el terreno judicial... y el software en cuestión no sale muy bien parado.

Este programa, que podría parecer de ciencia ficción, se usa por muchas jurisdicciones locales como una ayuda para apoyar las decisiones de los jueces. Al menos hasta ahora, porque la investigación, publicada por la revista 'Science Advances' pone en entredicho su fiabilidad.

Y es que las razones de peso para su uso eran que Compas era más objetivo y menos tendencioso que los humanos. Para ver si era verdad o no, dos profesores de informática de Dartmouth College decidieron reclutar a personas inexpertas por internet y comparando los resultados con los de la máquina, calificando de 1 a 10 el riesgo.

Así, presentaron a las personas que eligieron los perfiles de centenares de convictos con información básica sobre su sexo, edad y antecedentes penales, formulándoles una vez asimilada la información la siguiente pregunta: “¿Crees que esa persona cometerá otro crimen dentro de dos años?”.

En el 67% de los casos de media los humanos tuvieron razón, mientras que el software acertó en el 65,2% de los casos, unos resultados francamente similares. Ese casi empate supone un varapalo para el algoritmo, ya que su toma decisiones se basa en hasta 127 criterios, mientras que a los humanos seleccionados en esa especie jurado popular predictivo sólo les ofrecieron algunos datos sobre los condenados y potenciales reincidentes. Nada más.

Los autores sostienen que, aunque sea por muy poco, “es inquietante ver cómo personas no capacitadas superan a un programa que ayuda a tomar decisiones que pueden cambiar vidas”, por lo que piden una revisión en el uso de herramientas de predicción de la reincidencia en tribunales.

Acusaciones de racismo

No es la primera vez que el programa Compas está en entredicho. Una investigación de ProPublica publicada en mayo de 2016 analizó los resultados y las estadísticas recogidas durante dos años en un condado y llegó a algunas conclusiones inquietantes. Por ejemplo, que sólo el 20% de personas que el programa consideró que podían cometer un crimen violento lo hizo. En delitos menores la efectividad era igual que lanzar una moneda a cara a cruz, según señalaron los autores.

Sin embargo, en ese caso les pareció más grave el sesgo racial, ya que concluyeron que el programa exageraba el riesgo de reincidencia en negros y subestimaba el de los blancos, según el análisis de la metodología predictiva del programa.

Tampoco es la primera vez que los algoritmos muestran prejuicios raciales. Por ese motivo se ha fundado la Liga de Justicia Algorítmica, para que los sistemas de reconocimiento facial o la filtración de mensajes en función de la raza en redes sociales no caigan en algo tan tristemente humano como es el prejuicio racial.

Publicidad