rigurosidad


A finales de la semana pasada, Alfonso Piñeiro picaba en el anzuelo que le había lanzado unas semanas antes, y me llevaba la contraria con un magistral artículo sobre las ventajas de los algoritmos de recomendación (ES). Un artículo bien argumentado, que me llevó a pensar sobre la importancia de la rigurosidad, y las diferentes alternativas que tenemos a nuestra disposición para alcanzarla.

Gracias a internet, hemos reducido drásticamente las barreras de entrada y acceso al conocimiento. Esto significa que hoy en día, cualquiera con acceso a internet, puede tener en cuestión de segundos la respuesta a prácticamente cualquier duda que se le ocurra.

Y también que el conocimiento no tiene que pasar obligatoriamente por los canales reglados, pudiendo cualquier persona con acceso a la red ser a la vez consumidor y productor de información.

Por contra, precisamente esa apertura de fronteras hace que el principal problema que tenemos hoy en día en cuanto a información se refiere no sea de acceso, sino de rigurosidad.

Al no depender de una estructura piramidal, se favorece que el conocimiento sea trasladado en su mayor completitud, y debido a ello, surge la infoxicación.

[Tweet «Internet está repleto de información, pero mucha de ella no vale absolutamente nada»]

De ahí la importancia de utilizar las herramientas oportunas, de formarnos nuestro propio criterio y conocer el funcionamiento de Internet para minimizar los riesgos a estar mal informados, y por ende, a quedarnos únicamente con medias verdades o información no contrastada. Información no rigurosa, a fin de cuentas.


Esta es de hecho una de las banderas que ondean los medios tradicionales, habida cuenta de que el modelo de negocio tradicional se tambalea. Y aunque podamos presuponer una rigurosidad mayor en entornos tradicionales (periódicos, radio, prensa), bien es verdad que no es oro todo lo que reluce, y que al final la información que consumimos en estos medios acaba por venir del mismo lugar (internet) que la de toda esta nueva oleada de información descentralizada.

¿Es más rigurosa la información de un periódico que la de un blog? Podría serlo, en tanto en cuanto podamos presuponer que el periodista tiene el único interés en informar rigurosamente del asunto, acudiendo a fuentes fidedignas, entendiendo el funcionamiento de la red, y el periódico tiene un modelo de negocio alejado de intereses sectoriales. Y lo mismo podríamos decir del blogger, o del tuitero. Si lo que se lleva a la boca depende de cómo afronte una información, quizás esa rigurosidad esté enfocada hacia algo que en síntesis la hace menos rigurosa, menos objetiva.

Así pues, se me ha ocurrido pensar en qué herramientas dictaminarán el presente/futuro del generador de contenido, disasociándolo de esa dependencia a intereses externos, y que de seguro confluirán paulatinamente en una Internet más rigurosa. Un entorno cada vez menos infoxicado. O al menos cada vez menos adolecido de los males de la infoxiación.

La curación humana y distribuida

Del paradigma de medio de comunicación tradicional (empresa que genera información), con internet pasamos a un entorno hiperpoblado de plataformas de curación de contenido, que ofrecen al consumidor una nutrida gama de información a partir de una parametrización inicial (y/o continua) según intereses del mismo.

¿Los problemas? Principalmente dos:

  • El primero, que una máquina, hoy en día, es incapaz de analizar objetiva y subjetivamente el valor que ofrece un contenido. Por ello, se basa en efectos esperables de ese valor, y no en el valor en sí mismo (como la interacción de su público, el número de visitas, los Me Gusta, el tiempo de lectura,…).
  • El segundo, que el interés comercial sigue presente: Las recomendaciones que nos hace una plataforma de este estilo (véase Flipboard, véase el timeline de Facebook,…) vienen dadas por dos variables. Una interna (interés del usuario) y otra externa (interés de la compañía). Así, habrá contenido que nos recomienda porque podría interesarnos, y contenido que nos recomienda porque la marca en cuestión ha pagado para que se muestre a nuestro perfil, sea o no interesante para nosotros.

Frente a este paradigma, vuelve la figura del curador de contenido. Expertos sectoriales que se encargan de hacer una segunda criba por encima de lo que el algoritmo de turno ha dicho, agregando a la cadena esa capa subjetiva que al final es lo que nos hace humanos, y con el éxito esperable. El futuro Project Lightning de Twitter o Apple Music son ejemplos de plataformas que están apostando por la curación humana como método para ser más rigurosos (más certeros) en sus recomendaciones.

Delegando en la comunidad la curación de contenido

Quizás el futuro de estas plataformas de información no sea la de gestionar ellos mismos la información, sino la de ofrecer las herramientas necesarias para que sea la comunidad quien se auto-abastezca.


Las redes sociales y sobre todo los foros son, al menos en esencia, un ejemplo de éxito de cómo una comunidad puede gestionar casi sin ayuda externa la rigurosidad de la información.

En Reddit o Menéame puedes encontrar de todo, pero solo llega arriba lo que la comunidad ha votado. Y aunque hay muchos factores que hacen que al final un artículo sea un éxito en estas plataformas, el interés social es quizás uno de los que más garantías ofrece.

Sistemas de valoración basados en el karma o la puntuación permiten generar plataformas donde el contenido se ordena según su popularidad, que pueden ser muy interesantes para según qué objetivos haya.

Delegando en el papel de una tecnología a cada paso más cercana a lo natural

Sería el tercer camino, comentado en el artículo de Piñeiro, y que pasa por poner todas las energías en unos algoritmos de recomendación que sean capaces de entender la rigurosidad humana.

Es la panacea buscada por los grandes gigantes de internet, puesto que ya sabe que a un algoritmo no hay que pagarle, ni se pone de baja ni pide vacaciones.

[Tweet «.@PYDotCom: ‘A un algoritmo no hay que pagarle, ni se pone de baja, ni pide vacaciones'»]

Y ese algoritmo es hoy en día fácilmente burlado mediante las propias limitaciones del sistema (el SEO es el mejor ejemplo).


El problema radica en la forma de llegar a él, puesto que para ello tendremos que categorizar la repercusión que tiene cada uno de los factores (ES) que en conjunto dan forma a la rigurosidad.

Efectos de la misma, como actualmente funcionan la mayoría de estos algoritmos, y factores más complejos de analizar informáticamente, como son las métricas exógenas.

Google es quizás quien más avanzado tiene el trabajo. Su Knowledge Based Trust o KBT (EN/PDF) es un PoC que intenta categorizar el contenido dando prioridad a la «calidad» de este contenido respecto al contenido semejante generado en otros medios, analizando a su vez la «rigurosidad» de estos.

Y lo pongo entre paréntesis porque como decía, es un mundo aún por descubrir.

¿Cuáles son todos los factores que hace a un contenido más riguroso que otro? ¿En qué medida las valoraciones de la comunidad deberían ser tomadas? ¿Cómo luchar en un entorno en el que hacer trampas (clickbaiting, SEO, list articles,…) es prácticamente una norma para posicionarse como referente?

 

Son preguntas difíciles de contestar. En todo caso, cualquier avance, aunque sea a partir de acercamientos a la rigurosidad y no a la definición completa, significaría un gran paso para el acceso a la información de toda la humanidad.

 

Aviso a navegantes: Durante las próximas dos semanas seguramente no pueda mantener el ritmo de publicación al que os tengo acostumbrados. Seguiré no obstante dando caña por la comunidad, pero presumiblemente el blog se quedará un poco más relegado mientras soluciono algunos problemas personales. Mil perdones.