jigsaw

La semana pasada publicaba por estos lares mis respuestas a las preguntas que me lanzaban desde Business Insider España a colación de todas las tergiversaciones que están llevando a ecosistemas informativos como los de Google, Facebook o Twitter a ser hoy en día el campo de batalla político y cultural del momento

La proliferación de campañas de phishing masivas, el lanzamiento de vídeos poco apropiados para niños en plataformas enfocadas a éstos, los depredadores sexuales utilizando herramientas de mensajería efímera ampliamente extendidas entre los más jóvenes, y cómo no, el impacto que han tenido los discursos de odio, la radicalización y las fake news a la hora de polarizar a un porcentaje significativo de la sociedad.

Pese a que mis respuestas eran, ante todo, conciliadoras y positivistas, la pieza resultante, no obstante, se quedaba dentro del titular esperable: Las grandes compañías de Internet no hacen lo suficiente (ES). Algo que, remarco, creo que no es del todo cierto.

Es de humanos esperar que éstas grandes corporaciones solventen de un plumazo todos los males que vienen dados, hasta cierto punto, por los servicios que han desarrollado. Pero lo cierto es que es pedir demasiado, habida cuenta de que no hablamos de un problema puramente de escalabilidad o de recursos, sino que atañe a la propia ideosincrasia subjetiva y cultural de cada uno de nosotros.

Estaba dándole vueltas al asunto cuando me encuentro la entrevista (EN) que recientemente le hacían en el MIT Technology Review a Yasmin Green, actual directora de Investigación y Desarrollo de Jigsaw, una filial de la empresa matriz de Google, Alphabet, encargada precisamente de intentar controlar los discursos de odio en Internet, y de la cual en su momento hablé por estos lares (La era de los trolls educados como defensa frente a IAs aún en pañales).

La entrevista no puede ser más interesante (o al menos a un servidor así le parece). Desde el cómo llegó a su puesto, pasando por la importancia que le da a que todo su equipo se enfrente continuamente a situaciones complicadas viajando a países en guerra para entrevistar a los ciudadanos (¿le suena de algo?), hasta las conclusiones a las que han llegado después de todos estos meses viajando, preguntando y desarrollando estrategias para contrarrestar los efectos dañinos anteriormente mencionados.

No tengo el placer de conocer a Yasmin en persona, pero me da que nos íbamos a llevar bien :).

La complejidad del radicalismo digital

Le dedican en la pieza unas cuantas preguntas a la lucha contra el Estado Islámico. Un tema que, como bien sabe, ya he tratado por aquí en más de una ocasión. Y me alegra saber que por Google andan alineados con mi forma de entender el problema y las posibles salidas que tenemos para minimizarlo.

De todo lo dicho, de hecho, me quedo con este párrafo, en el que explica cómo han intentado contrarrestarlo:

Una de nuestras conclusiones fue que el tiempo es crítico. Cuando los potenciales reclutas ya se han rendido a la ideología, es demasiado tarde para influir sobre ellos; tienes que llegar a ellos cuando simpatizan, pero aún no se han vendido. Así que recurrimos a publicidad online dirigida. Hemos diseñado algo llamado «método de redireccionamiento», que utiliza anuncios orientados para llegar a personas que simpatizan con el Estado Islámico, pero que aún no se han comprometido con él, y los redirige a vídeos online de clérigos moderados, desertores y periodistas que podrían evitar su radicalización.

¿Los resultados?

El piloto, que duró ocho semanas y se desarrolló en árabe e inglés, llegó a 320.000 personas. Tenía una tasa de clics excepcionalmente alta en los anuncios y generó medio millón de minutos en tiempo de reproducción de vídeos. Dado que las personas no pasan más de unos pocos segundos en un vídeo que no les interesa, eso es alentador. Después de nuestra prueba piloto, YouTube integró el método en sus resultados de búsqueda. La metodología de código abierto también ha sido replicada por otros, como la Gen Next Foundation.

Es, de facto, el mismo problema que en su día definía a colación de las estrategias llevadas a cabo por este grupo terrorista en derroteros sociales.

Son muy, muy buenos en eso de hipersegmentar a su audiencia, lanzando campañas muy bien diseñadas para atraer a ese público objetivo y poco a poco alienarle hasta que acaban radicalizándolo.

Sin ir más lejos, Yasmin hacía hincapié en que a veces los límites son difíciles de señalar:

Definitivamente hay categorías de contenido que no deberían ver la luz, como las decapitaciones y los tutoriales para fabricar bombas. Luego, hay una gran cantidad de contenido que realmente no incita a la violencia, pero que podría ayudar a que la gente se dirija hacia ella. El objetivo de nuestra investigación era comprender cuáles eran los temas de reclutamiento que hicieron que las personas se apuntaran al Estado Islámico. Resulta que generalmente no fueron atraídos por las decapitaciones; en lugar de eso, estaban convencidos de que este grupo era religiosamente legítimo y que la causa de la yihad era su deber religioso. El Estado Islámico estaba dando forma a la conversación, haciendo preguntas para las que tenía respuestas aparentemente convincentes.

Dentro de todo ese contenido más light, hay que comprender que incluso páginas como ésta, que claramente están en contra de los radicalismos, pero que también son críticas cuando así lo creo oportuno con los movimientos de uno u otro gobierno/corporación, pueden acabar sirviendo de primer puerta de acceso a ese buyer persona que los expertos en marketing les encanta sacar en sus presentaciones.

Que soy consciente de que parte de mi audiencia (usuarios de un nivel académico medio/alto, críticos ante los ataques de un porcentaje significativo del electorado en materia digital) podría ser target de este tipo de campañas. Y eso ni muchísimo menos significa que quien escribe en esta página lo haga con tal intención. Simplemente que, a poco que entendamos cómo funcionan las mecánicas de propaganda, seremos conscientes de que la mejor mentira es una creada en base a muchas pequeñas verdades.

Crear la pregunta para respuestas que (en este caso, la Yihad) ya tiene mejor preparadas que el resto de canales del «statu quo», como bien señalaba Green en su entrevista.

Censura, fake news y sesgo algorítmico

En la pieza también mencionan los esfuerzos de Google por luchar contra la censura de la mano de su Project Shield, una herramienta de la cual también he hablado en el pasado, y que ha demostrado ser hoy en día la mejor defensa, para colmo gratuita, con la que pueden contar los activistas y medios de comunicación cuando son víctimas de ataques DDoS.

Los puntos en común que suelen tener las campañas de noticias falsas:

El objetivo de estas campañas es sembrar ideas y narrativas a través de personajes falsos y portales de noticias. Después, estas semillas son fertilizadas por las masas para que las conversaciones parezcan orgánicas. […] Las campañas coordinadas tienden a durar más que las orgánicas, y las personas involucradas tienden a esperar para recibir instrucciones de sus jefes, por lo que a veces hay un ligero retraso antes de que actúen juntas. Esos actores también tienden a estar vinculados a redes extremadamente concentradas o grupos de apariencia irregular. También hay una dimensión semántica. Estas campañas a menudo usan palabras y frases similares que pueden ser una señal de control centralizado.

Y, por supuesto, sobre el impacto del sesgo humano en los algoritmos que cada vez más rigen nuestra vida. Otro de los grandes males que desde este humilde espacio he denunciado por activa y por pasiva.

Que sirva esto para ser consciente de que Google (o Facebook, o Twitter, o quien sea), dentro de lo maquiavélicamente malignas que parecen ser, son las primeras interesadas en combatir todos estos males. 

Que detrás de esas corporaciones también hay personas con las mismas inquietudes que usted y que un servidor, y que aunque haya unas razones puramente egoístas en todo ello ($$$), están trabajando juntas con el fin de crear un ecosistema digital lo más sano posible.

Les va el negocio en ello, de hecho. Y eso es lo mejor que nos podría pasar.