Del Big Data al Right Data: ética en recopilación y análisis de datos

Habrá leído el titular, y se habrá preguntado: “¿Qué demonios quiere decirme Pablo con esto?“.

dron

Muy sencillo: Varios temas que tenía almacenados en mi gestor de fuentes de información apuntan inequívocamente a los inicios de una maduración del análisis de grandes volúmenes de datos.

Y viene precisamente de la presión social en pos de la privacidad. Algo sencillamente impensable hace tan solo un par de años.

Entrando en detalles, hay tres sectores que ganan por goleada propia el mayor porcentaje de críticas. El de los drones, el de la vigilancia ciudadana y el de la publicidad.

Tal es así que en un mismo día, podemos ver cómo DJI, uno de los múltiples fabricantes de drones, liberaba recientemente una actualización (EN) en el sistema operativo de sus dispositivos que evita que cualquiera de sus drones pueda volar en un perímetro inferior de 25kms de Washington D.C., así como en unas 10.000 cercanías de aeropuertos. Simplemente cualquiera que quiera hacerlo volar en estas inmediaciones, se encontrará con que su aparato se niega a hacerlo.

Lobotomización oficial.

Sale esto, y al rato nos enteramos que ya se está empezando a monetizar “Maldrone”, un malware que permite hacerse en remoto con el control de un dron (de hecho en la prueba de concepto que puede ver en el vídeo se utiliza un DJI Phantom).

Lobotomización hacker.

 

Entre medias, unos dispositivos que están levantando ampollas en la comunidad, principalmente debido a la bajada drástica de su precio (por menos de 100 euros tienes un modelo básico (ES)) unido al voyeurismo humano, que adelantan un futuro no muy lejano en el que las persianas levantadas podrían ser el campo de batalla entre vecinos.

Eso obviando el interés de algunos cuerpos de seguridad por utilizar drones de “vigilancia” (EN) en las calles.

Información que es compartida con mayor o menor acierto en la nube, y explotada previsiblemente por sistemas automáticos de big data.

Aquí es donde entra la ingeniería Kansei, a medio camino entre la informática y la psicología, que es pilar básico de productos desarrollados por empresas como Emotient (EN), Affectiva (EN) o Eyeris (EN), y dirigidos al análisis de rasgos faciales en tiempo real. Traducir fotogramas a expresiones humanas, y estas a datos que puedan ser explotados con fines publicitarios y/o de control.

En la misma panorámica, la masificación de drones, con los malos usos (intencionados o no) de los mismos, y con un sistema basado en ingeniería Kansei que permitiera a un tercero reconocer ciudadanos y analizar sus sentimientos. Y entonces entenderá cómo la AEPD, la Agencia Española de Protección de Datos, esté tan preocupada (ES/PDF) por la evolución de la tecnología Big Data y las implicaciones que ésta pueda tener en la privacidad y la seguridad de la información personal de los usuarios, de los ciudadanos.

Entenderemos también porqué algunas celebrities de la ciencia como Stephen Hawking (EN), Elon Musk (EN) o Bill Gates (EN) alertaban recientemente sobre los peligros de un Big Data automático e inteligente.

No se trata de mirar con recelo la evolución tecnológica, sino de pararse a pensar en sus implicaciones a medio y largo plazo, y tomar las medidas oportunas para que la tecnología mantenga una ética que satisfaga los intereses de la humanidad.

Por eso me pareció interesante hablar del Right Data (aviso a navegantes, palabro inventado) frente a la figura del Big Data. Ya no se trata de almacenar toda la información habida y por haber, con el fin de cruzar datos y encontrar relaciones más o menos afortunadas. Hablamos de procesar la información adecuada, sin que por ello dilapidemos los derechos del usuario, de los ciudadanos.

Tiene además asociado un aspecto trascendental a nivel corporativo, y es que el Right Data, frente a su anterior iteración, precisa de unos recursos más sostenibles. Negocio más rentable, a fin de cuentas, que permite con una inversión mínima obtener más beneficios que dando palos de ciego.

Un escenario más interesante para todos, que evita necesidades autoimpuestas de lobotomización de dispositivos. Y la vuelta a una hegemonía del ser humano como cabeza pensante y una máquina como ejecutora, que evite que dentro de unos años, los damnificados seamos todos nosotros.