La información
Escribía el fin de semana el artículo especial del CIGTR sobre las palabras de Obama sobre el futuro de la NSA.
Y de entre todo lo expuesto (y obviando el hecho de que nada va a cambiar a priori sobre el abuso de poder en las comunicaciones digitales), me quedo con el último párrafo del artículo, en el que decía algo así como:
Quizás llegados a este punto, y en espera de que ver los resultados de la reforma, podamos respirar tranquilos al saber que por mucha información que el organismo sea capaz de almacenar, su procesamiento se está volviendo por momentos una labor casi imposible de mantener (EN). El obtener información de valor de grandes volúmenes de datos es una asignatura pendiente, y difícilmente salvable con las capacidades de la inteligencia artificial de nuestros días, lo que obligaría a contar con un filtro humano capaz de comprender realmente el funcionamiento complejo de nuestro lenguaje, y por tanto, a unos fondos con los que ni siquiera la NSA cuenta.
En referencia al artículo de Wired enlazado en el párrafo anterior, y al que no puedo más que aplaudir. Sencillamente una obra de estudio que os pediría le dediquéis unos minutos (Antonio Ortiz anotaba (ES) lo mismo recientemente).
Un tema que ya había sido tratado superficialmente no hace mucho, y que responde a la eterna pregunta en torno al análisis del Big Data. Felix Salmón habla para ello de cuatro etapas:
- Una pre-interrupción: Ese momento en el que un sector relativamente maduro (maduro atendiendo a la concepción de la información que trabaja) da el paso a automatizar su movimientos, como ayuda auxiliar al equipo de analistas que tiene tras de sí.
- La interrupción: Cuando ese mercado empieza a operar alguna de sus funciones directamente automatizadas. Y como mejor ejemplo, el sector financiero y la publicidad que nos hace llegar ya no dependiendo del gerente del banco con el que hemos hablado, sino al uso que le damos a la tarjeta. Eso, o el uso que se le dio al Big Data en las pasadas elecciones norteamericanas, con call to action dirigidos ya no solo a los sectores de la población que interesaban, sino al individuo.
- El rebasamiento: La vuelta a poner los pies sobre la tierra. Cuando la recopilación de información evoluciona a un ritmo superior que el análisis, y empieza a haber problema para mantener un sistema que engulle masivamente todo lo que puede. El punto álgido de lo tratado en esta entrada ¿Cómo mantener el mismo nivel de compromiso (recopilación-analítica) para predecir (y de paso controlar) los estímulos externos (personas, consecuencias a acciones,…), cuando esos mismos se ven influenciados por el sistema? La respuesta es sencilla: Imposible, teniendo en cuenta que el sistema está basado en algoritmos de predicción racionales, y las personas son de todo menos racionales. Y lleva un peligro añadido: la incapacidad en muchos casos de saber cuándo parar y reestructurar el sistema. Un sistema que ha propiciado el abandono de aquellos analistas, que son casualmente los únicos capaces de predecir el desastre de un sistema totalmente controlado por la automatización (en este punto, resulta terriblemente complicado no recurrir al germen de La Fundación (enlace de afiliado) de Isaac Asimov, con esos psicohistoriadores que dibujaron el final del imperio mediante esa hipotética ciencia futura, y cuya mayor preocupación era el evitar que en el futuro hubiera psicohistoriadores capaces de interferir en el camino marcado).
El artículo habla de una cuarta etapa, La Síntesis, en la que pasada la crisis del sistema, éste vuelve a recuperar la figura “irracional” de los analistas, que usarán el propio sistema como herramienta de filtrado, y no como fin en sí mismo.
Esto aplicado a cada sector donde el Big Data está presente. La necesidad de la figura humana para digerir información sacada de variables irracionales. Algo que un sistema difícilmente llegue algún día a procesar, por mucho que nos llegue a superar en raciocinio.