El “mens rea” de la culpabilidad: Algoritmos por encima de la ley

Disfrutaba como un niño este fin de semana al conocer el proyecto artístico The Darknet: From Memes to Onionland (EN), de dos programadores, que en su día decidieron desarrollar un bot de compra aleatoria con 100 bitcoins semanales como cartera, y lanzarlo en la Dark Web a ver qué era capaz de traer.

algoritmia probabilistica

El resultado, el esperado. Junto con ropa y demás accesorios geeks (no podía faltar la colección de El Señor de los Anillos), el pequeñín trajo a casa diversos enseres de espionaje, una VISA platino (presuntamente robada), un DNI húngaro falso y hasta unas cuantas pastillas de éxtasis convenientemente encubiertas en una caja de DVD.

Productos prohibidos, que podrían llevar ante los tribunales a cualquiera que decida comprarlos. Pero (y aquí empieza lo bueno), ¿a quién culpamos?

La respuesta más obvia es a los programadores, y siento decirle que el juicio, de base, ya está ganado. Estos vivaces desarrollaron un algoritmo ALEATORIO, por tanto, resulta prácticamente imposible “enchironarlos” por premeditación. El bot podía haber comprado cualquier cosa, pero decidió aleatoriamente hacerse con estos productos.

Queda pues el propio programa, pero entra en juego otro aspecto legal. Para que alguien (o algo) sea culpable, la ley requiere de mens rea (una mente con intención), y al carecer de ella el algoritmo, de nuevo nos encontramos en un callejón sin salida.

¿Quien es el culpable entonces? Según Ryan Calo, de la Universidad de Washington, nadie (EN). Ni el creador ni la obra pueden ser juzgados, aunque el delito se haya cometido. Y esto abre la veda a los crímenes sin autor, basados en la aleatoriedad matemática y la intermediación.

Todo queda dentro de los límites probabilísticos. El algoritmo ni fue diseñado con intenciones malignas, ni tiene capacidad de elección. Su programación es clara y concisa: busca productos al azar, y los compra.

Podríamos considerar que hay intención en haberlo puesto en alguno de los markets de la dark web, donde sabemos que puede llegar a comprar productos ilegales. Y en cambio, no es suficiente para penalizar el acto, puesto que si bien aumenta la probabilidad, sigue siendo eso.

El tema es preocupante, y adelanta uno de los problemas que tendremos en el futuro, regidos por la dictadura de unos algoritmos sin corazón, sin subjetividad. No hay culpa, no hay error en que un coche automático decida matar primero a sus pasajeros que a los pasajeros del coche que viene justo de frente, puesto que a nivel puramente objetivo, en el otro hay un mayor número de personas.

O peor aún, no habría mala praxis si ese mismo algoritmo decide proteger los intereses de sus clientes, intentando forzar al otro vehículo para que sea ese quien ocasione las víctimas mortales.

No hay cerebro pensante, solo un conjunto de reglas y asociaciones probabilísticas que permiten a la máquina decidir cómo obrar en cada caso.

¿Qué me dice de un bot de lenguaje natural que acabe por influenciar a un humano en redes sociales a cometer una locura? Posiblemente la persona ni siquiera sea capaz de saber que está ante un automatismo, y el automatismo, simplemente dirigirá la conversación con mayor o menor acierto, tergiversando sin intención la información, e influenciando de forma totalmente aleatoria los sentimientos de su interlocutor.

Pero el resultado es el mismo. Crímenes sin autor, que más pronto que tarde estarán entre nosotros.