juicio algoritmico

Se trata de un escenario que hemos dibujado en no pocas ocasiones.

Ese día, usted se levanta con la firme determinación de pedir un crédito hipotecario, y motivo de ello, se dirige a su banco habitual.

La diferencia esta vez radica en que quien gestionará la viabilidad de ese acuerdo no será un equipo de expertos a partir de su histórico bancario anterior, sino un algoritmo que scrapeará tanto su histórico bancario, como el de aquellas personas con las que usted mantiene contacto vía redes sociales, así como en qué ha gastado el dinero que tenía (no ya en la cantidad, que también, sino analizando si esa compra en La Casa del Libro de una obra de X autor, es «adecuada» para un perfil como el suyo), y el resultado será un número absoluto.

Nos dirigimos a un escenario cada vez más controlado por la pura objetividad de los algoritmos. Un tema que ha estado caliente estos últimos días, a partir del artículo que publicaba Bruce Schenier en CNN sobre el algoritmo de valoración crediticia de Sesame Credit (EN), ya en funcionamiento en China.

Llegaba al artículo por otro de Enrique Dans en el que exponía el caso (ES), y por una serie de emails que unos compañeros de trabajo mantuvimos al respecto, y el tema me pareció lo suficientemente interesante como para dedicarle estas palabras.

La banalización de la subjetividad

Hay, de hecho, un aspecto que me parece muy peligroso en esta tendencia, y es precisamente el obviar el valor que ofrece la subjetividad a la hora de realizar valoraciones.

Simplificar una decisión a un valor numérico es banalizar la complejidad de cada caso, y puede llevar a una tergiversación y manipulación de los resultados, sea consciente o inconscientemente, venga del propio algoritmo o del sujeto a analizar.

Es algo que vemos a diario con el mundo del posicionamiento en buscadores. Muchas empresas se centran precisamente en engañar el algoritmo de Google antes de hacer las cosas correctamente, puesto que el primer camino suele dar mejores resultados en poco tiempo, aunque, y debido a los constantes cambios que la compañía desarrolla en su algoritmo, conlleve mayor riesgo.

El que un algoritmo como Elo Score (EN) de Tinder sea capaz de valorar mi atractivo mediante una simple fotografía, va más allá de lo que a priori representa. Ya no solo partimos de que un algoritmo es capaz de puntuarme positiva o negativamente, simplificando los innumerables aspectos que hacen atractivo a una u otra persona, sino que en efecto, una puntuación más positiva en este ranking hará que, al menos en el servicio, tenga mayores posibilidades de conocer a otra persona (más visibilidad en el mismo).

La duda que me surge es por tanto qué estuvo antes, si esa objetividad que demuestra tener un algoritmo de dating es lo que hace que una persona tenga más o menos garantías en su vida (mayor atractivo, mayores posibilidades de conseguir un crédito), amparándose en el argumento de autoridad (esa valoración viene dada por algo que ha analizado objetivamente al sujeto, sin miedo a factores exógenos como amistad o estado de ánimo del analista, y ofrecido esta valoración, que además es única y absolutista) o si en efecto, la conjunción de todas esas variables que el algoritmo en cuestión aplica para obtener ese dato absoluto, son factores que un conjunto de analistas debería considerar exclusivamente, obviando esa parte subjetiva que podría estar tergiversando la valoración.

El riesgo de una dependencia algorítmica absolutista

Y es aquí a donde quería llegar.

Si un servidor, usuario que podríamos considerar avanzado en esto de las nuevas tecnologías, soy consciente de que mi vida va a depender de la objetividad «pura» de varios algoritmos que valorarán factores propios de su negocio, e indirectos, como es el caso del uso que le doy a las redes sociales o con quién mantengo comunicación (y su solvencia), quizás me plantee ser el mejor Yo posible en el mundo digital.

Crearme una fachada (o varias, según el caso) enfocada a obtener mejores resultados en cada uno de los algoritmos que regirán mi vida.

Así, probaré decenas de fotos hasta encontrar aquella que Tinder, o el servicio que sea, valore más positivamente. Y no dudaré, ya de paso, en retocar esas fotografías, incluyéndole filtros y gamas de colores que hagan a ese algoritmo puramente objetivo darme mayor valoración de la que merezco.

Que si el día de mañana tengo que pedir un crédito en el banco (Dios no lo quiera…), lo mismo para entonces me haya tejido una red de contactos con la que únicamente me une mi interés por la solvencia económica de éstos, pero que en efecto, digitalmente, somos amigos de toda la vida.

Mi Xiaomi Mi Band 1S marcará que cada día corro no menos de 10Kms, aunque sea una mentira como un piano. Pero si eso me asegura que el día de mañana me van a ofrecer mejores precios en un seguro de coche/vida, adelante.

Dejaré constancia en LinkedIn de todos los éxitos empresariales y las ONGs y trabajos sociales que he realizado… o que me interesa que ese algoritmo que quizás el día de mañana valore mi candidatura a un premio por lo buen enterpreneur que soy, así considere.

Claro está, mantener estas fachadas en la vida real es muy, muy complicado. Sobre todo aquellas que dependen de factores pasivos, como los datos recogidos por wearables. ¿Pero para una necesidad específica? Es más, si el futuro estará supeditado al control de estos algoritmos, no suena descabellado empezar a usar más como arma nuestra sociabilidad digital, ser consciente del valor que tienen nuestros datos y todos aquellos otros factores que puedo tergiversar desde la comodidad de mi despacho.

Y así, se pierde lo poco que aún nos quedaba de confianza en esa web social que en su día nos vendieron como una verdadera revolución. Sencilla y llanamente, si soy capaz de comprender que mi éxito en la vida depende de las apariencias que pueda desarrollar digitalmente, seré el primero en hacerlo.

Me va la vida en ello, que no es poco.