fake news facebook

En las últimas horas ha corrido por los derroteros digitales la denuncia por parte del grupo de extrema derecha Vox al percatarse de que un vídeo compartido en Facebook por Santiago Abascal, el líder de la formación, aparecía de esta guisa, alertando a todos sus interesados con un rotundo:

Información falsa

Verificado por verificadores de información independientes.

Por supuesto todos aquellos alineados con la formación han visto en esto un «ataque a la democracia y la libre expresión». Otra censura más de los progres. Y los progres, que de pronto ven en Facebook, esa hasta entonces herramienta capitalista que bien que utilizan para lanzar también sus campañas de propaganda política, al Dorado de la lógica y el sentido común. De pronto Facebook es guay porque les da la razón. A ver cuánto tardan en darse cuenta de que las hostias van a venir en ambas direcciones…

Por supuesto, la realidad es que ni tanto ni tan poco.

Vamos a hablar de qué demonios ha pasado realmente con el dichoso vídeo de Abascal. A entender que ha sido pura casualidad que le afectase esta vez al partido «verde» (por el iconito, que no por su propuesta electoral). Y de cómo Facebook, de paso, las mata callando, echándole la culpa a sus socios.

La diosa fortuna ha querido que justo para esta semana tuviera pensado publicar un artículo sobre cómo funcionan las botnets de noticias falsas, así que publico este hoy y espero que el viernes pueda publicar el otro (si no sale otra noticia de actualidad que me robe el día :D).

Qué es el sistema de verificación de noticias de Facebook

Ya por marzo un servidor avisaba de los movimientos que estaban haciendo las grandes tecnológicas «para proteger la democracia».

El mal de nuestra era es, como ya he dejado claro en más de una colaboración con medios, la proliferación de las fake news. Esas noticias falsas que siempre han estado con nosotros (no dejan de ser una herramienta más de propaganda política), pero que habían encontrado en las redes sociales la herramienta de viralización definitiva, y por varios motivos:

Bajo este prisma, como decía, Facebook, autoproclamada recordemos «la red amante de la privacidad» (río por no llorar…), se sacaba de la manga la creación de un sistema gestionado por HUMANOS que intentaría velar por que en efecto todo lo que se publique en su red tenga un afán informativo y no destructivo.

Y puesto que ya hace tiempo que han demostrado ser incapaces de conseguirlo inhouse, pedían ayuda a terceros. Referentes más o menos objetivos del mundo del periodismo y la sociedad en general que estaban invitados a formar parte de una red de supuestos adalides de la verdad mundial. Entre ellos, Maldita.es y Newtral, dos proyectos patrios dedicados a cazar bulos y fake news.

Cómo funciona

Por supuesto es más fácil decirlo que hacerlo, y sin ir más lejos por aquí expliqué técnicamente cómo funcionan estos sistemas semi-automáticos de catalogación de contenido inapropiado. En esa ocasión, respectivo a ese vídeo con la matanza de Nueva Zelanda de hace apenas unos meses y que estuvo durante horas viralizándose por Youtube.

Básicamente, y por resumirlo mucho, para que un contenido (sea el formato que sea) lo podamos catalogar como inadecuado, primero tenemos que haberlo identificado como tal. A él, o a otro que los sistemas de inteligencia artificial pueda correlacionar con el nuevo y así marcarlo también.

El problema, claro está, es que esto no es tan sencillo como parece. Dos fotos o dos vídeos que a ojos humanos son exactamente iguales, a ojos de la máquina (es decir, mediante los metadatos y la huella digital que la máquina puede leer) le pueden parecer totalmente distintos. Simplemente cambiándole o poniéndole un filtro puede que el resultado final sea no correlacionable con el anterior.

Ergo el sistema no lo puede catalogar como no adecuado. Ergo se puede seguir viralizando.

Y a todo esto júntale el hecho de que es un trabajo continuo en el tiempo. Continuamente se están subiendo nuevos contenidos a la red, y continuamente es necesario ya no solo revisar esos contenidos que ya marcamos como no adecuados, sino que además hay que marcar como no adecuados a aquellos nuevos que así corresponda. Parte por los sistemas de inteligencia artificial, y en casos como este de tinte político, ético o religioso, con ayuda de seres humanos.

¿Qué ha pasado entonces con el vídeo de Abascal?

Para más inri al bueno de Zuckerberg se le ha ocurrido poner en la alerta que muestra al haber bloqueado dicho vídeo que esto se debe a la moderación de Maldita.es, un medio sin ánimo de lucro que trata de «dotar a los ciudadanos de herramientas para que no se la cuelen», cuando realmente quien ha tomado la decisión ha sido la propia Facebook (ES) en base a la moderación de contenidos parecidos por parte de Maldita.es.

El vídeo compartido por Abascal ya había sido catalogado por el equipo de Maldita como potencialmente falso, como comenta uno de sus responsables por Genbeta (ES):

«Nosotros no hemos marcado la publicación de Abascal como falsa: el programa de verificación por parte de terceros no permite marcar las publicaciones de políticos (algo que hemos criticado desde el primer momento que nos unimos al programa). ¿Qué ha pasado? Nosotros verificamos ese vídeo atribuido a la afirmación «el PSOE aplaude a bildu» o similares que habían colado varias publicaciones y usuarios de facebook y que eran mentira. El algoritmo de Facebook lo que hace es buscar contenido idéntico en la plataforma y lo marca también como falso. En este caso, la publicación de Abascal era falsa y por eso el algoritmo la marca. No nosotros».

Pero claro, parece que suena mejor echarle la culpa a un tercero. Hace unos años la culpa era del algoritmo, ahora es de los colaboradores, ya sabes :).

Es más, Facebook, en otro de sus alardes de soberana estupidez, ha creado al menos hasta el momento de escribir estas palabras tres excepciones (EN) en las que dejaría pasar posibles deepfakes y demás contenido falso. A saber:

  • Si queda claro que tiene un tono satírico o irónico: Me va a gustar ver cómo consiguen diferenciarlo algorítmicamente.
  • Si un contenido «simplemente» se ha editado para cambiar el orden u omitir palabras: Vamos, que seguiremos viendo montajes falsos.
  • Si el contenido lo sube una cuenta de un político: Porque de todos es sabido que los políticos deberían seguir teniendo derecho a mentir, que si no a ver qué nos cuentan…

En este caso, como decía, no procede. Ya que realmente el vídeo de Abascal no fue subido por él, sino que este simplemente lo compartió. Y fue marcado de antemano como falso no porque estuviera manipulado (no hablamos de un deepfake), sino porque el propio contenido era falso.

¿Y qué va a pasar a partir de ahora?

Pues realmente esto no ha hecho más que empezar. Casos como el de Cambridge Analytica han demostrado que la sociedad es débil a una manipulación informativa bien orquestada mediante campañas de tinte social y político en derroteros digitales.

Parece obvio pensar entonces que lo suyo es que se haga algo al respecto.

La duda, no obstante, es como en tantas otras ocasiones dónde ponemos los límites.

¿Tiene sentido supeditar una herramienta de alcance global como es Google o Facebook a la ideosincrasia ideológica de cada zona del mundo?

Y más aún, ¿Cómo diferenciamos las mecánicas de tergiversación del discurso de aquel contenido que tiene meramente un fin satírico? ¿O de aquel que analiza la realidad desde su propia óptica?

Porque la verdad absoluta no existe. Y si esperamos que una plataforma como Facebook sea quien gestione dicha verdad, peor me lo pones.