Software preparado no da la talla
En octubre del año pasado hablaba de Hitachi Data Systems, una herramienta que supuestamente ayudaría a los cuerpos del orden a ser más eficientes a la hora de cazar a los malos en base a un software de inteligencia artificial que analizaba los antecedentes criminales de una serie de ciudadanos para intentar predecir cuándo uno de ellos volvería a caer en ello.
Jessica Saunders, de RAND Corporation, ha podido estudiar estos años un proyecto piloto lanzado por la policía de Chicago, y publicaba recientemente sus investigaciones en un paper (EN):
En general, las observaciones y los entrevistados indicaron que no existió ninguna dirección práctica sobre qué hacer con los individuos de la SSL, se prestó poca atención ejecutiva o administrativa al piloto y se realizó poco o ningún seguimiento con los comandantes de distrito.
En todo este tiempo, apenas ha sido utilizado por los policías como herramienta de campo más que cuando “los jefes estaban mirando”.
Y aún así, en aquellas investigaciones que sí se ha utilizado, los resultados no han sido para nada brillantes: Tan solo nueve detenciones (en dos años).
En lo que sí ha funcionado es a la hora de considerar por defecto a una persona en la lista más potencialmente culpable que otra que no estuviera:
El hallazgo de que la lista tuvo un impacto directo en las detenciones, en lugar de en la victimización, suscita cuestiones de privacidad y consideraciones de derechos civiles que han de ser cuidadosamente consideradas, especialmente en el caso de predicciones que vayan dirigidas a grupos vulnerables con un alto riesgo de victimización.
Vamos, que hay poco dónde rascar.
Por supuesto, algunos dirán que ha sido solo el primer acercamiento. Que en el futuro estos sistemas serán mucho más eficientes.
Pero lo cierto es que es ése último punto el que debería preocuparnos.