Cualquiera que como un servidor tenga un portal digital ligeramente bien posicionado y actualizado con algún formulario donde un tercero pueda escribir algo recibirá a lo largo de la semana no pocos intentos de colar contenido automatizado como contenido real.
Sin ir más lejos, esta página tiene tan solo en comentarios marcados como spam de forma automática (utilizo Anti-Spam (EN) para este cometido) 15.510 piezas. Considerando que hay hoy en día 5.317 comentarios publicados (los que un servidor ha considerado adecuados para publicar, previa pre-moderación manual), se puede hacer una idea del impacto que tienen estas herramientas en otros escenarios donde no hay control alguno habilitado. Y por tanto, de su impacto global en el tercer entorno.
En mi página de contacto, por ejemplo, no tengo analíticas, ya que todo el control fue programado por un servidor mediante mecánicas de honeypots que simplemente bloquean el contenido malicioso sin almacenarlo ni dar algún tipo de feedback al emisor o a mi persona. Pero recuerdo que de base, antes de hacer los cambios, no había semana en la que no me llegara información crítica para mi vida sobre los beneficios de la viagra, las novias rusas que se habían quedado prendadas de mi encanto digital natural y los intentos de extorsión a mi página.
Es uno de los males endémicos en el tercer entorno, que se agrava cuando al interés puramente difusor de un contenido se le añade la pata del negocio, dando como resultado el crowdturfing, o la capacidad de impactar de forma nociva e interesada en herramientas informativas, tergiversando su funcionamiento hacia los objetivos que tengan los atacantes.
Crowdturfing en servicios digitales…
El principal valor que ofrece cualquier servicio digital es, precisamente, la opinión del resto de la Comunidad.
Esta página no tendría más valor que el que de forma interesada un servidor le otorga (repositorio de opiniones sobre la actualidad tecnológica) sino fuera porque la Comunidad es la encargada de someter cada pieza a una crítica, y considerar si debe o no comentarla o compartirla con sus contactos.
Una app como la de Uber no dejaría de ser un “mero” servicio intermediario sino fuera porque en esa intermediación ha conseguido ofrecer el valor de las opiniones de usuarios anteriores, de forma que de antemano conocemos la reputación que tiene el conductor que nos va a venir a buscar, y en caso de que algo ocurra, podemos valorarlo negativamente.
Cuando utilizamos Amazon para comprar productos, lo que realmente buscamos no es el mejor precio del mercado (no suele serlo, de hecho), sino una logística sin precedentes y (aquí viene lo importante) la valoración que anteriores clientes han ofrecido del producto a comprar.
Esto es de sobra conocido tanto por los buenos como por los malos, y estos últimos han ido paulatinamente sofisticando sus estrategias del mero SPAM automatizado y fácilmente reconocible, a otra serie de metodologías cada vez menos localizables.
El paso intermedio es aquel en el que el atacante paga, o engaña a terceros, para que sean éstos (o sus cuentas) quienes publiquen contenido que satisface sus intereses, con o sin el conocimiento de ellos. Es el esquema que podemos ver en el lateral izquierdo de la imagen principal de este artículo. De esta manera, los usuarios reales son utilizados como granja para crear una red de contenido falso con el que llenar de comentarios positivos a un producto específico, o dilapidar la reputación de otro de la competencia.
Y decía que esto venía funcionando así desde hace tiempo, tanto en derroteros puramente propagandísticos, como aquellos que tienen una finalidad económica. Tanto para campañas individuales como para markets de compraventa de valoraciones. Sencilla y llanamente porque los sistemas de anti-SPAM han demostrado ser muy eficientes a la hora de localizar contenido automatizado… Hasta ahora.
… asistidos por la IA
Recientemente varios investigadores de la Universidad de Chicago (EN/PDF) demostraban cómo era posible crear sistemas de crowdturfing automatizados que eludían casi por completo los sistemas anti-spam tradicionales que tienen habilitadas las principales plataformas de crowdsourcing, e incluso engañaban a los propios usuarios.
Para ello, y como ya pasara con las campañas de phishing, han utilizado una serie de agentes de inteligencia artificial encargados de crear diferentes contenidos basados en la contextualidad de forma automática, difundiéndolos bajo el paraguas de una red de perfiles fail.
Es el esquema mostrado en el lado derecho de la imagen destacada de esta pieza. De esta manera, el atacante únicamente debe programar la IA (acceso a una granja de cuentas más objetivos buscados) para que sea la máquina la que analice los comentarios disponibles y cree nuevos comentarios aparentemente reales con la idea de tergiversar el sentiment global.
Esto hace que de pronto, los límites naturales de este tipo de campañas, se diluyan. Si antes el alcance de las mismas dependía de los recursos disponibles para contratar, engañar o sobornar a los usuarios, ahora tan solo necesitan acceder a una base de usuarios mínima (depende del servicio, puede que incluso automatizando la creación de cuentas nuevas baste) y darle al Play, que la máquina se encarga del resto.
Y los resultados, al menos en el lenguaje anglosajón (ya sabe, mucho menos rico que el nuestro y por ende más sencillo de utilizar por parte de una máquina), dan qué pensar…
Lo chulo de la investigación es que al menos esta vez los investigadores se han dignado a crear el PoC tanto desde el lado del atacante como desde el lado del defensor.
Esos mismos sistemas de aprendizaje han sido utilizados para establecer contramedidas, de forma que las IAs encargadas intentan predecir qué tipo de comentarios podrían crear otras IAs a partir de la base de datos ya existente, fichando potenciales valoraciones falsas como spam.
Como la mayoría de comentarios legítimos no se basan en comentarios anteriores (más bien son opiniones que de forma nativa el usuario ya trae consigo, aunque puedan estar ligeramente influenciadas por la conversación inicial), la parte buena es que las contramedidas se vuelven altamente efectivas, dilapidando ese beneficio económico que a priori tendrían los malos, y volviendo a hacer más interesante el contratar, engañar o sobornar a usuarios reales.
Lo que nos lleva al pez que se muerde la cola (las contramedidas tradicionales son altamente efectivas contra automatismos tradicionales, y los pasos intermedios salen caros).
Eso sí, hay que considerar que hoy en día las contramedidas de la mayoría de estas plataformas no están preparadas para la irrupción de sistemas automatizados de inteligencia artificial, por lo que por ahí podrían venir los tiros (utilizarlos mientras las plataformas se actualizan, y luego ir puliéndolos con la esperanza de estar siempre un paso por delante de los buenos).
En fin, que me pareció curioso el estudio, y más en particular, el cómo la parte económica es al final el principal limitador de todas estas metodologías.
Encontrar el equilibrio entre inversión y beneficio es tan importante para los servicios digitales como para la industria del cibercrimen, lo que limita a ambos, evitando que acaben pasando mayores desgracias.