Se hacía público ayer que la red social del Sr. Zuckerberg había estado llevando a cabo un peculiar (y peligroso) estudio (EN) bajo el amparo del departamento de Core Data Science Team (una suerte de Ministerio de la Verdad) durante una de las semanas de Enero de 2012.

infoxicacion

En estas fechas, alrededor de setecientos mil usuarios fueron sometidos, sin su conocimiento, a un algoritmo que, previa división en dos grupos, se encargó de ocultar para unos todas aquellas actualizaciones de estado de sus amigos que contenían términos o emociones negativas, y para otros las positivas.

El objetivo de tal estudio no era otro que constatar que las emociones, aunque sean transmitidas en el tercer entorno, son capaces de contagiarse y condicionar nuestras acciones.

Ahora le animo a que vuelva a su historial de estados y se fije en la temática que tuvieron en Enero de 2012. Piense que quizás usted, como un servidor, podría haber sido una de las ratas de laboratorio de este departamento, y que quizás eso propició que tomara decisiones oportunas (o inoportunas) en la vida real. Un empuje artificial para dirigir su postura ante la vida positiva o negativamente.

Ahora también le animo a pensar en las connotaciones de este estudio. No solo en el hecho de que Facebook pueda hacerlo sin nuestro consentimiento explícito, que a fin de cuentas todos lo hemos aceptado a la hora de crearnos una cuenta en su servicio:

… para operaciones internas, incluidos la solución de problemas, el análisis de datos, la investigación, el desarrollo y la mejora del servicio.

Sino en sus aplicativos publicitarios que podrían estar hoy en día utilizándose. El hacerse eco de las actualizaciones de viajes de sus conocidos, acompañado por un ligero aumento del porcentaje de publicidad relacionada con Viajes El Corte Inglés para maximizar los beneficios de una posible campaña de esta agencia. O aumentar el alcance orgánico (ese que paradójicamente se ha reducido «para mejorar el servicio») de las actualizaciones relacionadas con una postura política en detrimento de otras cercanos a unas elecciones.

Ya no hablamos por tanto de ese banner publicitario en el que aparece la cara de un amig@, que desinteresadamente le dio en algún momento de la vida un Me Gusta a esa página. Hablamos de controlar a las personas. De hacerles ver solo parte de una realidad, apoyados en la supuesta presión social, empujándolas hacia un objetivo que en ese momento interesa a alguna marca.

Queda patente el valor y poder que tiene una compañía cuya principal función es gestionar lo que nosotros vemos de nuestro ambiente. De cuando esto pasa a ser gestionado por una supuesta reputación, y no por un orden cronológico, y cuando esta reputación depende de cuánto es capaz de pagar el mejor postor.

La evolución que hemos sufrido en estos últimos años respecto al consumo de información saca su lado negativo en acciones como estas. De cuando un usuario tenía todo el poder de elección sobre lo que leía, hasta ahora, avasallados por la palabra de autoridad de un News Feed y el ejército de «aplicaciones de recomendación». Porque ya no es únicamente que el usuario no sea dueño de lo que lee, sino que en muchos casos (como el que nos compete) el emisor tampoco lo es ¿Dónde quedó la libertad informativa en un panorama en el que nos mienten deliberadamente, haciéndonos creer que somos dueños de la situación? ¿Es culpa del afán económico de las compañías, o quizás de esa necesidad imperiosa del usuario de delegar elección en el sistema?

No, amigo, ya no somos dueños de nuestra realidad. Y tampoco lo somos de las acciones que llevamos a cabo, lo que es aún más preocupante.

Porque no hay nada más terrorífico (y efectivo) que el pensar que una idea ha nacido de ti, cuando en verdad nace de una manipulación externa.

Edit a día 4 de Julio del 2014: Se acaba de liberar una extensión para Chrome (EN) que simula el experimento de Facebook, mostrándote únicamente aquellas actualizaciones de amigos que sigan un patrón anteriormente definido. Interesante para sentir en nuestras carnes lo que podría dar de sí el control de lo que consumimos. Funciona solo en Inglés, eso sí.