El terrorismo se combate con analistas, no con inteligencia artificial

London bridge terrorismo

Tres días después del ataque terrorista ocurrido en el London Bridge (EN), y que se saldó con la vida de 8 personas y 48 heridos, se celebraba a escasos kilómetros la conferencia de oficiales de seguridad (EN) de la ciudad.

En ella, Dame Stella, former head de uno de los equipos de inteligencia de Reino Unido (MI5), explicaba cómo en estas últimas décadas las problemáticas de defensa nacional habían dado un vuelco de 180 grados.

En los años 70 el mayor problema que tenían estos equipos era, precisamente, acceder a la información. Para ello tenían que, habitualmente, infiltrarse en los círculos adecuados, en complejas campañas de espionaje que, con suerte, acabarían a las semanas/meses ofreciendo algo de valor.

A día de hoy la problemática principal no es la accesibilidad, sino más bien justo lo contrario: Que hay demasiada información. 

El papel del contexto

Es, de facto, algo que me encuentro a diario en mi trabajo como analista. Basta poner a escuchar las máquinas para que, en cuestión de un par de horas, y si las queries son adecuadas, las herramientas nos muestren ya unos cuantos cientos o miles de interacciones. El éxito de las plataformas digitales ha sido precisamente el que las barreras de entrada a la producción de contenido se han desplomado hasta límites insospechados, permitiendo a prácticamente cualquier persona tener uno o varios canales por los que compartir sus inquietudes, que para colmo son rastreables y accesibles por cualquier otra inmediatamente esté cerca o en el otro lado del mundo.

¿Qué pasa entonces?

Que en un momento tan álgido de la revolución de la inteligencia artificial, tendemos a perder una perspectiva crítica en cualquier tipo de análisis: el contexto.

La mayoría de estas herramientas analizan los volúmenes de datos de forma genérica, acudiendo a los números brutos, e incluso atreviéndose a analizar de forma objetiva su contenido. Y esto podría llegar a funcionar… si “esos datos” analizados vinieran de otra máquina, no de seres humanos, irracionales y profundamente caóticos.

Pongamos un ejemplo:

La empresa Feterrería Manolo me contrata para saber por qué desde marzo está vendiendo menos.

Me pongo a analizar los datos estructurados de los que dispone el establecimiento a nivel digital, y en cambio observamos que el trabajo que está haciendo el CM de la empresa (que es también el dueño, por cierto) es más que correcto, respondiendo a preguntas y asesorando a aquellos clientes y potenciales clientes de manera adecuada, lo que impacta positivamente en el el crecimiento global de sus perfiles.

El sentiment general de Ferretería Manolo a nivel digital es bueno, y lo mismo si hiciéramos un estudio a pie de calle pasaría exactamente lo mismo. Manolo está posicionado como un referente del sector, y eso, como bien sabe, suele ser bueno.

¿Qué es lo que falla?

Que estamos obviando el contexto. Ese mismo que, de tenerlo en cuenta, y aunque no tenga por qué dejar rastro a nivel cuantitativo o cualitativo, impacta negativamente en el negocio. Algo tan sencillo como fijarse que a dos manzanas de distancia han abierto una de estas macro-ferreterías impersonales, sin apenas presencia digital, pero con unos precios (y calidad) tirados por los suelos.

Manolo sigue siendo el referente del sector, tanto en la calle como digitalmente, pero el contexto de su negocio ha cambiado con la entrada de un nuevo competidor cuyo único atractivo es que vende muchísimo más barato. Lo suficiente como para que parte de la clientela de Manolo se haya ido al otro lado, aunque siga teniéndolo en tan buena estima e incluso siga consultándole sus dudas.

Volviendo al caso que nos compete, Philip Davies, director del Brunel Centre for Intelligence and Security Studies, decía una frase que viene como anillo al dedo:

La buena noticia es que tenemos acceso a muchísima información, pero la mala es que mucha de ella está perdida.

En ese ataque de principios de mes, Khuram Butt, de 27 años, y uno de los supuestos terroristas, ya había sido reportado como potencialmente peligroso en 2015 e investigado por el MI5 por aparecer enJihadis Next Door” (EN), un documental de Channel 4.

Youssef Zaghba, de 22, y supuesto cómplice, fue interrogado por la policía italiana, que había alertado con anterioridad a la agencia de inteligencia de Reino Unido sobre su previsible radicalización. Es más, esta persona estaba dentro del llamado Sistema de Información de Schengen (ES), una lista europea que atesora la friolera de 8.000 potenciales jihadistas en nuestras costas.

Con el atentado en Manchester (EN) ha pasado exactamente lo mismo. Salman Abedi, el hombre bomba del atentado, ya aparecía en los registros del MI5 como P4, un nivel de prioridad creado para aquellos terroristas que podrían volver a activarse, pero que hasta el momento no se tiene constancia de ello.

Khalid Masood, el que atacó en Marzo el puente de Westmister (EN), estaba también clasificado como de tipo P4. Es decir, islamista pero no una amenaza.

No hay “refinamiento” suficiente

Hace ya un tiempo publicaba un artículo titulado El petróleo del siglo XXI por si mismo, sin refino, no sirve para nada, haciendo hincapié en que aunque los datos son el nuevo Dorado, lo que de verdad se necesitan son mejores algoritmos de segmentación y más masa gris.

Las agencias de inteligencia, y en definitiva, la mayoría que nos dedicamos a ese saco sin fondo llamado Inteligencia, estamos errando en la manera de afrontar el problema, porque el problema ya no es de accesibilidad de la información, sino de tratamiento. De ser capaces de contextualizarla y segmentarla de una manera muchísimo más adecuada para que de verdad aporte valor y no se vuelva ingobernable.

La estrategia seguida por estas grandes organizaciones tiene que, ineludiblemente, pasar de intentar matar moscas con cañonazos a hacerlo mediante armas de francotirador.

  • Priorizar en el tratamiento de datos: Dejar de lado la absurda pretensión de almacenar datos masivos para centrarse en los volúmenes de información que más probabilísticamente nos interesan, obviando todo el ruido exterior, y a sabiendas que en efecto tenemos la capacidad de monitorizarlo (que no de analizarlo). Ese Right Data del cual ya hablé hace unos cuantos años.
  • Dar a las herramientas su justo valor: Ni más, ni menos. El papel de una herramienta, tenga o no sistemas basados en inteligencia artificial, debería seguir siendo el de apoyo al trabajo del analista. Máxime en algo tan crítico como es la seguridad de un país. Es absurdo pretender que una máquina, por mucho aprendizaje al que haya sido sometida, va a poder analizar subjetivamente una acción llevada a cabo por una persona entre millones de personas. En cambio, hay que reconocer que la máquina nos da mil vueltas a la hora de analizar grandes volúmenes de información, sirviendo así como una primera capa de segmentación que elimine la mayoría del ruido para que el analista tenga que poner masa gris donde potencialmente hay más interés/riesgo.

Si hay fichados 20.000 potenciales terroristas, centrarse en las actividades de esas personas, e intentar únicamente engordar/reducir la lista cuando de verdad haya motivos de peso para ello.

La creación de gabinetes externos que evalúen continuamente este tipo de priorización puede, además, dotar al sistema de unas garantías éticas (recordemos que en estos listados previsiblemente habrá múltiples falsos negativos) y hasta pragmáticas (se ven las cosas con otra perspectiva cuando quien analiza no es también quien tiene que apuntar) bastante más eficaces.

Son acercamientos complejos de materializar, basados en listas negras que, per sé, también entrañan su margen de error.

Pero lo suyo es que el trabajo sea realmente útil. Aunque para según qué objetivos el ruido pueda llegar a ser interesante, no ocurre así con sectores tan complicados como es la seguridad nacional. Y en estos casos lo mejor es aceptar nuestras limitaciones y jugar con los recursos (tecnológicos principalmente, que a nivel económico estas agencias no es que anden muy limitadas) de los que dispones.