discurso del odio

El otro día me enviaba Alfonso Piñeiro el enlace al artículo de Carole Cadwalladr en The Guardian con el título «Google, democracia y la verdad sobre las búsquedas en internet» (EN).

La pieza, más larga de lo que bajo mi humilde opinión era necesario, pero bastante bien argumentada, trataba el problema de las búsquedas predictivas de Google que, con sus sugerencias, más de uno podría considerar discurso del odio.

La tesis que defendía Carole, y que a grosso modo suele cumplirse en diferentes escenarios digitales, es que frente a temas sociales y conflictivos, el contenido considerado políticamente inadecuado tiende a posicionar mejor que aquel que intenta hacer una lectura más fidedigna de la realidad.

Así, no es raro que a la hora de realizar búsquedas como la de la imagen destacada de este artículo (los afroamericanos son…), Google nos sugiera frases del tipo «los afroamericanos son racistas», «son violentos», o «son malos». Por contra, búsquedas de personajes o hechos que claramente fueron nocivos para la sociedad (como el caso de Hitler) suelen venir acompañados de sugerencias del tipo «Hitler no era malo», o «no era tan malo como parecía».

No es nada que de pronto debiera sorprender a alguien, y de hecho, es un problema que llevamos arrastrando desde el momento en el que hemos tenido interés en dar un orden a la red de redes. Simplemente es ahora cuando se agrava habida cuenta del negocio que hay en eso de generar noticias impactantes (sean o no verdaderas), habida cuenta del impacto que tienen éstas en escenarios de consumo de información cada vez más centralizados en plataformas sociales como Facebook, y en entornos de hegemonía del descubrimiento como es Google (alrededor del 90% de control de las búsquedas en Internet, un 97% en la mayoría de países occidentales).

En el artículo Carole intenta buscar algún tipo de culpabilidad en los de Mountain View, y un servidor ya había apuntado (tanto afirmativa como negativamente) en esos derroteros no hace mucho. Curiosamente acabo de terminar un informe para uno de mis clientes, y en el análisis final resumía con bastante acierto (¡hola modestia!) un problema que, recalco, no es nada sencillo de solucionar:

Por un lado, las compañías intermediadoras (aka Facebook y Google) se limpian las manos, argumentando que el suyo es un servicio gestionado por la máquina en base a los intereses del usuario. Que no hay por tanto línea editorial, y que en todo caso hay un interés ético (que no corporativo) por erradicar la lacra de las noticias inventadas (que tan bien funcionan a nivel de difusión).

Por otro, los algoritmos que rigen qué vemos y qué no, son tan neutrales como pueda ser el código que les da vida, como sean aquellos que han diseñado ese código. Y esa “neutralidad” favorece criterios que no siempre están alineados con los cánones de calidad, como pueden ser las interacciones, supeditadas al problema de las cámaras de eco sociales.

Por último, está el factor humano. Generalmente los usuarios prefieren consumir aquel contenido que venga masticado, y que para colmo, simpatice con sus puntos de vista. Sean o no una interpretación fidedigna de la realidad. La inmediatez se presenta entonces como un elemento atrayente, unido a la fugacidad del contenido, y a la narrativa, sea mediante estrategias de clickbaiting en títulos o imagen destacada, sea mediante la paquetización del mensaje en listas, hace el resto.

ecosistema fake news

El ecosistema del odio

Más interesante me parece el estudio de Jonathan Albright, profesor e investigador de la Universidad del Norte de Carolina, sobre la amplitud del ecosistema de páginas difusoras de contenido falso (EN).

Partiendo de 300 de estas páginas, ha obtenido esta red de enlaces (1,3 millones de hipervínculos) que apuntan hacia núcleos de difusión y creación bastante más centralizados de lo que a priori podríamos pensar.

Casi como si existiera «un vasto sistema satélite de creación de propaganda que ha rodeado completamente al sistema de medios de comunicación convencional«. El estudio se centra en el impacto de las noticias de la derecha, pero he obviado este punto, habida cuenta de que seguro que la izquierda tendrá el suyo propio.

Que portales de noticias como WashingtonPost, NewYorkTimes, Politico, FoxxNews o CNN hayan caído de una u otra manera en sus garras, es para preocuparnos. Pero lo es aún más que plataformas como Google, Facebook, Wikipedia o Amazon aparezcan como principales núcleos de difusión.

Enrique (ES) apuntaba en uno de sus últimos artículos a propuestas como la de GitHub (EN) y Snapchat (EN) por moderar el contenido que allí se publica.

La primera en base a una comunidad de moderadores y usuarios capaces de autoregular aquellos proyectos que por la razón que sea están discriminando o causando problemas al resto de usuarios. Una moderación a posteriori, que parece funcionar bastante bien, pero que ha demostrado ser ineficiente en escenarios más generalistas como es el caso de Twitter.

La segunda, en base a un control exhaustivo a priori, que modera quién puede o no participar, cerrando el grifo así a posibles interesados que por una u otra razón no pasen ese filtro (pese a que quizás su contenido sea de gran valor).

Y el problema de cualquiera de estos dos acercamientos sigue siendo el mismo: En el momento en el que la plataforma, hasta ahora supuestamente neutral (ya hemos visto que no), decide moderar, tiene que establecer una línea editorial.

Línea editorial cuyo equilibrio marcará la libertad o censura que ofrecerá la plataforma al resto de usuarios.

En Las Penas del Agente Smith (ES) lo sintetizaban recientemente muy bien:

Todo (esto) molaba más antes. Tenemos acceso más sencillo a material más pobre porque tiene que crearse para encajar en moldes más estrictos; de repente aparece la obligación de adaptar el contenido para todos los públicos en lugar de dejar que sea el público el que elija el contenido. No estamos aquí para vender publicidad de forma masiva a base de agregar nichos.

Es decir, que en ese afán por protegernos de la falacia de las noticias fake, lo mismo acabamos infantilizando el uso de la red. Cosa que ya ocurre en plataformas como Facebook (los vídeos de prevención de cáncer de mama hay que hacerlos al parecer con hombres (EN)), y que podrían ser el pan nuestro de cada día en cada vez más escenarios.

Ya sabe, eso de que no debo publicar esto por aquí, no vaya a ser que me lo bloqueen.

O peor aún, hacia derroteros aún más centralizados donde la única lectura posible es la lectura que dicta el agente opresor de turno, sea un gobierno, sea una compañía, sea una supuesta inteligencia artificial neutral.

De ahí que siga empecinado en delegar en el usuario la labor de moderación. De que seamos cada uno de nosotros los que autogestionemos la información que consumimos, y que entrenemos activamente nuestra capacidad crítica. Siendo conscientes de que las plataformas sociales son muy susceptibles a cámaras de eco, y que el Internet de nuestros días no nos muestra toda la realidad, sino la realidad filtrada a nuestros intereses.

Externalizando este trabajo solo estamos hipotecando nuestro futuro. Favoreciendo el auge del discurso populista, de la toma de decisiones por bilis y no por cabeza, de la criminización y victimización de personas por factores biológicos, y de la idealización de hechos o personajes cuyas acciones deben seguir siendo consideradas ética y socialmente inadecuadas.

 

Edit el 28 de Diciembre del 2016: Google actualiza su algoritmo para controlar algunas de las búsquedas (EN) comentadas en este artículo.