Mecánicas de propaganda digital como arma de intimidación

cronologia propaganda nazi

El 14 de Agosto, Lee Stranahan, un conocido periodista de la llamada “contra-cultura americana”, con claros lazos con el movimiento Alt-Right, publicaba una serie de vídeos (enlace borrado) en los que señalaba la aparente hipocresía estadounidense condenando la violencia neonazi en Charlottesville, mientras que en su día había respaldado la revolución maidana ucraniana (ES/¿euromaidán?,¿maidan?, ¿maidán?, no me ha quedado claro cómo debería referirme a ella en español), presumiblemente sacada adelante con el apoyo de la extrema derecha.

Para ello tomaba de referencia algunas fuentes reputacionales como Wikileaks y su fundador, Julian Assange, que había llegado a derroteros parecidos (aunque no explícitamente sugeridos) en una serie de tweets:

Hasta aquí, nada que debiera sorprenderle. Como ya he explicado con anterioridad, la propaganda, venga de dónde venga, parte de una realidad y una serie de argumentos hasta cierto punto objetivos para obtener una o varias lecturas alternativas que, en última instancia, simpatizan con los intereses de quien está detrás.

¿Y quién está detrás? Se preguntará.

Poco después, Russia-Insider, un medio considerado Pro-Kremlin, publicaba una pieza (EN) en la que, como argumento de autoridad, utilizaba los tweets de Assange, que vino precedida de un grupo de reportes (EN) sobre la aparente relación de la extrema derecha americana y ucraniana, aprovechando de paso para meter cera al gobierno de ambos países (EN), en una estrategia que ya viene de lejos y cuyo objetivo, como seguramente sepa, pasa por defender las acciones expansionistas (ES), consideradas por la ONU como ilegales, de Rusia en territorio ucraniano.

Una narrativa más para dar contextualidad y apariencia de legitimidad a la adhesión de Crimea y Sebastopol, vaya.

A partir de esto, múltiples medios de diferentes palos y astillas han ido bombardeando a su audiencia con diferentes lecturas (algunas más centradas en los intereses pro-rusos, otras contextualizadas en la lucha contra el yihadismo o la inmigración,…). The Atlantic Council’s Digital Forensic Research Lab (EN/DFR Lab) ha analizado con bastante profundidad la campaña, por lo que tampoco voy a pararme en ello.

A donde quiero ir es a que esta nueva oleada de discursos alternativos ha venido apoyada por una red de bots en Twitter que, haciéndose eco de los tweets lanzados por los medios y por simpatizantes del movimiento, se han encargado de viralizar las narrativas.

Una estrategia, de nuevo, habitual, en la propaganda digital, que para colmo, y debido a la manera en la que funcionan los algoritmos de estas redes sociales, sabemos que funciona.

Pero lo interesante del asunto no es esto, sino que días más tarde (18 de agosto), un artículo de ProPublica (EN) sobre el uso de bots para expandir la lectura pro-rusa en los acontecimientos de Charlottesville (y por tanto, contrario al movimiento) es utilizado por esas mismas redes para difundirlo.

¿Un error de programación? Podría ser, pero poco después empieza a ocurrir lo mismo solo que enfocado a los perfiles de algunos periodistas, difusores e investigadores.

Ese es el caso, por ejemplo, de Lizynia Zukur (EN), con un perfil de apenas 76 seguidores, y que recibió en cosa de una tarde casi 50.000 retweets y likes a un tweet sobre el artículo de ProPublica. Un comentario de Atlantic Council recibe de pronto más de 105k retweets (EN), la amplia mayoría de cuentas recién creadas. Maks Czuperski, director del DFR Lab, denunciaba públicamente en The Daily Beast que ese fin de semana varios de sus editores habían sido objetivo de campañas de viralización nocivas.

La creación de centenares de cuentas fail que se habían dedicado a inflar artificialmente el número de seguidores, retweets y likes de perfiles contrarios al movimiento.

Pero, ¿eso no rema en contra de los intereses de una campaña propagandística?

Propaganda como arma de intimidación

“No están amplificando las cuentas, lo que están haciendo es intimidar a los usuarios. Están de pie gritando en voz alta, pero en una habitación vacía”.

Es aquí a donde quería llegar.

Realmente la estrategia es brillante si nuestro objetivo es limitar el alcance de una lectura específica.

A priori parece que darle a like y retuitear masivamente un contenido hará que, en efecto, éste llegue al mayor número posible de potenciales usuarios. Pero lo cierto es que según cómo se haga podemos obtener justo lo contrario.

Esta red de bots ha sido creada no para maximizar la difusión, sino para limitarla. Son cuentas sin seguidores, claramente fail, que no hacen más que engordar los números y colapsar el timeline de notificaciones de aquellos que precisamente queremos silenciar. De esta manera, por un lado esa cuenta objetivo corre el riesgo de que la plataforma considere que está realizando algún tipo de mecánica de tergiversación, y por tanto, sea baneada. Y aunque esto no llegase a ocurrir, se mina su credibilidad (los detractores pueden señalar que está utilizando bots para maximizar su perfil), y en la práctica cualquier respuesta o conversación que se genere alrededor del contenido publicado se acabará perdiendo en un océano de notificaciones artificiales.

Sea por uno o por otro, el resultado final es el mismo: No hay debate posible, ergo menos difusión, ergo menos impactos que dañen la lectura alternativa que queremos imponer.

 Se silencia a los objetivos por saturación, no por ofuscamiento.

También existe un aspecto intimidatorio en el hecho de que gracias a estos bots se puede señalar como objetivos a perfiles que en principio no estarían en el radar del movimiento, minimizando de paso el surgimiento de otros críticos contra la campaña propagandística.

El uso de bots para inflar las estadísticas de una cuenta puede ser motivo suficiente para que aquellos interesados en la causa empiecen una campaña de desacreditación, cuando no directamente de persecución social y linchamiento público.

Y es un tema que sigue siendo asignatura pendiente en Twitter. La red del microblogging parece que no encuentra la manera de ofrecer un servicio que por un lado disponga de las garantías suficientes para que cualquiera lo vea como un lugar saludable para expresarse sin miedo a las represalias, y por otro, proteja a aquellos perfiles que, por la razón que sea, son atacados.

Estos días nos enterábamos que Facebook llega a eliminar un millón de cuentas fail cada día (EN). Prácticamente las mismas que se crean.

La unión de una serie de controles asistidos informáticamente con un ejército de analistas en segundo plano es aún insuficiente para controlar la tergiversación llevada a cabo en la que es a todas las luces la plataforma social más grande jamás creada por el ser humano.

Y mientras tanto, una herramienta perfecta para maximizar discursos falaces, y acallar a los que resulten molestos a aquellos que entienden que el fin justifica los medios, y que si para ello hay que inventarse una narrativa o atacar directamente a las fuentes que critican sus acciones, bienvenido sea.