Este es un ejemplo de los artículos que semanalmente escribo de forma exclusiva para los mecenas de la Comunidad.

Si quieres recibir contenido exclusivo como éste directamente en tu bandeja de correo, revisa las opciones de mecenazgo de esta página.

*******

youtube

A finales del mes pasado dedicaba una pieza en el blog a explicar el porqué plataformas como Youtube o Facebook demostraban ser terriblemente eficientes (hasta el punto de pasarse) en eso de identificar y bloquear contenido que pudiera contener otro contenido protegido por derechos de autor, y en cambio parecían ser incapaces de identificar contenido claramente dañino, como era el caso de la matanza en las dos mezquitas de Nueva Zelanda grabada GoPro en mano.

Un contenido que cualquier persona con dos dedos de frente identifica como contenido tóxico al instante.

Por detrás, toda una maquinaria algorítmica montada en base a listas negras que justamente no sirve para nada cuando lo que queremos controlar son contenidos tóxicos… pero originales.

Estos días un extenso reportaje en Bloomberg venía a demostrar cómo probablemente situaciones como ésta se den no por la incapacidad real de la plataforma para controlar su mal uso, sino porque ese mal uso, a fin de cuentas, también representa una parte significativa de su negocio (EN).

Está más que demostrado que el contenido extremista o conspiranoico funciona mejor que el que se basa en ofrecer hechos contrastados. Y eso al final son muchas menos horas de visualización para una plataforma como Youtube, que vive precisamente de eso.

Según el medio, se supone que la cuadrilla de revisores humanos recibían órdenes de no catalogar este tipo de vídeos como nocivos (lo que habría hecho que el algoritmo dejara de recomendarlos), de que no estudiaran el fenómeno de cómo son más populares que otra clase de vídeos y de que no analizaran el problema en conjunto.

Entre los factores de esta supuesta decisión estaría, por supuesto, el obtener más ingresos (más visualizaciones de publicidad), pero también el hecho de que a menos desconocimiento por parte de la plataforma sobre el fenómeno de las fake news y las campañas de contenido tóxico, menos problemas legales podría tener. Que al parecer, el conocimiento de esta situación, demostrable en el caso de que se intentara perseguir más activamente, legalmente les pone en peor situación frente a eventuales efectos judiciales.

Dónde queda eso de que el desconocimiento de la ley no te exime de tener que cumplirla.–

Y sin embargo

Al final entiendo que el vaso no está ni tan lleno ni tan vacío. Que como bien sabemos, hay contenido que sin ser estrictamente adecuado, tampoco podemos considerar que sea tóxico.

Que encontrar el punto exacto en el que algo pasa de ser simplemente contenido no muy correcto a contenido potencialmente dañino para la sociedad se me antoja verdaderamente complicado:

¿Permitimos, por ejemplo, tutoriales que explican cómo adelgazar, a sabiendas que quizás su público objetivo es gente con problemas de anorexia o bulimia?
¿Y qué hay de ese contenido creado por terraplanistas, o antivacunas? Porque prohibirlo por defecto supone, de facto, censurar corrientes de pensamiento que quizás sean erróneas, pero aún así interesa mantenerlas dentro de plataformas masivas, no empujándolas con ello a derroteros mucho menos controlables (y por ende manipulables).

La cuestión, más allá del titular que vende, no es para nada sencilla, ¿verdad?

________

Este es un ejemplo de los artículos que semanalmente escribo de forma exclusiva para los mecenas de la Comunidad.

Si quieres recibir contenido exclusivo como éste directamente en tu bandeja de correo, revisa las opciones de mecenazgo de esta página.

Articulo exclusivo PabloYglesias