Leía el otro día en el blog de Enrique un artículo sobre jelly (ES), ese nuevo proyecto de alguna de las cabezas visibles de Twitter que viene a ofrecer un nuevo espacio de crowdsourcing alienado por la relevancia.


Concrete_wall

Y es que como ya había comentado hace relativamente poco en referencia al modo de búsqueda de los buscadores, la relevancia automatizada de esta nueva ola de servicios se ha erigido como centro neurálgico de una red que paso a paso se está volviendo más analógica y pasiva.

Entendiendo el tercer entorno como el basto imperio de la información que es, ofrecer al usuario herramientas de búsqueda y descubrimiento de nuevo contenido es casi tan importante como generarlo, y para muestra una empresa como Google, sentada en su trono de rey gracias a un producto que esa exactamente eso, y un ejército de servicios adicionales que se alimentan del primero.

Queda patente que quien gobierne dicho mercado gobierna el tercer entorno, y con él al resto (un servicio para gobernarlos a todos, G.G). De ahí la importancia de la relevancia, ese paradigma que asegura (o eso dicen) la curación efectiva de contenido según las necesidades.

En su momento, la relevancia atendía puramente a la comparativa de parámetros de una web (meta-descriptores) con el criterio de búsqueda elegido. Un camino que demostró no ser el más acertado, optando por una curación en referencia a lo social.

Aquí entramos en un tema peliagudo, en tanto en cuanto podemos aceptar que un contenido es mejor que otro por el simple hecho de que hacia él apuntan otros contenidos con más relevancia que el segundo. Lo que se obtiene entonces es una segmentación para nada democrática (recuerda mucho al modelo cuantitativo de votos de España), en donde un enlace vale más o menos dependiendo de quien lo enlaza.

Surge así mismo otro término, el del descubrimiento, que viene a definir esa necesidad aparentemente innata del usuario por llegar al nuevo contenido, y que éste le ofrezca nuevo contenido referencial.


La veracidad del algoritmo de relevancia automatizado

De curadores de contenido, pasamos a algoritmos de curación. Con este cambio, se intenta paliar la previsible subjetivización del hombre, relegando el compromiso en una máquina. Y aquí es donde aparece la primera mentira.

Ese algoritmo no deja de estar escrito por un hombre, por lo que sus criterios iniciales, que ofrecen por tanto ese paradigma relevante que tanto se ansía, está tan condicionado como lo que obtiene la figura del curador.

Nos hemos cargado al medio, pero obtenemos lo mismo que antes.

Así es como cualquier aplicación que se precie tiene ahora un servicio de autodescubrimiento, que se apoya en lo social para ofrecer una aparente segmentación por nuestras preferencias.

Pero es entonces cuando realizamos una búsqueda, o le damos a la pestaña de descubrir de Twitter, y nos encontramos con lo siguiente.

PabloYglesias-Descubre

Dos décadas de evolución en los criterios de búsqueda para que éstos servicios acaben ofreciéndonos como relevante los medios tradicionales que han dado salto al mundo digital ¡Hay que joderse!


¿De verdad no hemos aprendido nada en este tiempo como para llegar a la misma conclusión? 

De la revolución digital al estancamiento analógico: Revolución estéril

Y así es como llegas a aborrecer los algoritmos de descubrimiento que tan presentes están hoy en día. Porque detrás de ellos, hay intereses puramente económicos. Mirar sino el porcentaje de espacio publicitario que tiene Google en su buscador (EN), o todos esos medios “relevantes” a base de talonario que nos ofrecen servicios como Flipboard o Currents.

Más aún, cuando nos quieren vender la moto que el consumo de contenido del futuro pasa por servicios como Google+ o Pinterest, un array infinito en columnas de publicaciones sociales con inesperadas inclusiones de contenido aparentemente popular (que en la máxima no deja de ser contenido que por su estupidez obtiene más +1 o Me Gusta o repineos o vaya usted a saber) y que conlleva intrínsecamente la lectura superficial del mismo.

PabloYglesias-Relevancia

¿Qué tipo de algoritmo puede llegar a la conclusión de que a un servidor le debería interesar entradas de este tipo?

¿De verdad delegar la voz del contenido en medios populares es la mejor manera para llegar a la información?

Cambiarlo todo para llegar al mismo sitio

Esa es la conclusión a la que puedo llegar. Pasamos de un mundo analógico (periódicos y revistas regidos por medios y puramente pasivos) a un tercer entorno que ofrece diversidad, proactividad a cambio de dedicación, para volver a un nuevo espacio de periódicos y revistas regidos por medios y puramente pasivos.

Que Google venga y me diga que el RSS es mucho más pasivo que sentarte delante de una red social y mirar de reojo el timeline es el colmo de los colmos ¿En qué cabeza puede llegar a aceptarse tal afirmación?

¿Vamos a desperdiciar el potencial de internet en materia comunicativa para quedarnos únicamente con la información que ya encontramos en el quiosco de la esquina?


Peor aún, si como ellos quieren, optamos por acomodarnos en la silla del escritorio y esperar a que sea el sistema quien nos asesore qué debemos y qué no leer, a sabiendas que ello está influenciado por ver quien ha soltado más fajos de dinero, lo único que obtenemos es hipotecar nuestro futuro y ser esclavos de su servicio (y más con la continua expansión cerrada de las redes). Un panorama que habremos aceptado, y que sólo conllevará a la paulatina pérdida de interés por el contenido de calidad.

¿Para qué crearlo si nadie lo va a leer? Mejor seguir al rebaño. #HeDicho.

 

P.D.: Muy aconsejable la entrada de Cuatro ideas para contextualizar el mito del descubrimiento (ES) de José Alcántara (@versvs), de la que he sacado algunos puntos para completar el artículo.