falsedad periodistica


La historia es tan larga que me cuesta pensar por dónde empezar… ¡Ya sé!

La semana pasada, como bien sabe, Trump ganó las elecciones con una amplia diferencia. Al igual que ha pasado por aquí y que pasa por cualquier país democrático y conectado, la mayoría nos preguntamos cómo es posible que un personaje como éste salga elegido Presidente.

Un servidor ya dio sus porqués al respecto (Señores, nos guste o no, esto es la democracia), pero por algunos medios anglosajones encontraron un enemigo más tangible al que señalar como causante de tamaño despropósito: Facebook (EN).

Al parecer, Trump ha ganado las elecciones gracias a la viralización que tuvo en plataformas como Facebook noticias creadas ex profeso por el partido republicano… y por sus contrarios. Una suerte de “hiper-vitaminización” de la realidad que mantuvo a la mayoría de potenciales votantes atentos a los movimientos convulsos del señor Donald, posicionándolo como un mesías anti-establishment para unos, y con una aureola de victimización para otros.

La historia, como decía, viene de bastante antes. Precisamente del 2013, cuando Facebook hacía público un sistema de “trendic topics” seguramente inspirado en los que Twitter ya ofrecía.

La respuesta de una red social para mantener informado a sus usuarios, que se les fue de la mano cuando ya a principios de este año tuvieron que despedir a los periodistas que tenían contratados y sustituirlos por un algoritmo.

¿El porqué? Se estará preguntando. Y la respuesta es sencilla: Algunos de estos trabajadores aseguraron que, en su afán de ser lo más objetivos posible… habían ocultado o directamente eliminado contenido considerado políticamente conservador (EN). Vamos, que de una u otra manera esa plataforma neutral de la que Facebook (y el resto de compañías de Internet) hacía gala tenía poco de neutral.


Después de esto, una oleada de críticas que acabó, como decía, con la sustitución del humano por una máquina, aludiendo a que de esta manera “no habría intencionalidad” en la selección de trending topics.

Por supuesto, esto solo era una cortina de humo.

Inteligencia artificial vs noticias falsas

Dicho algoritmo ha estado fallando más que una escopeta de perdigones desde entonces, posicionando entre los temas hot del día contenido que cualquier humano con dos dedos de frente (de los cuales al parecer hay pocos en la Tierra) tacharía de noticia falsa y/o de titular pretencioso.

Y aquí viene lo más gracioso. Al parecer Facebook era consciente de la situación, y prefirió no implementar una mejora de su algoritmo por miedo a volver a ser objetivo de críticas (EN) del partido republicano.

Es decir, que permitió que su algoritmo filtrara como interesante noticias falsas que en líneas generales apoyaban el discurso de la derecha estadounidense para no tener que enfrentarse a esta derecha. Y que esto para colmo ayudó a que esa misma derecha, dirigida por el hombre del flequillo juguetón, acabara en la Casa Blanca.

Sobre este acúmulo de infortunios hay varias lecturas interesantes, pero me voy a centrar en tres de ellas:

  1. Trump no ganó gracias a Facebook: Ganó gracias a muchísimos otros factores (entre ellos que la alternativa tampoco era nada halagüeña). Y por otra parte, pensar que Facebook inconscientemente ha ayudado a la campaña republicana es pecar de ignorante. Lo mismo que ha llevado a un porcentaje significativo de la sociedad americana a votar con el corazón y no con la cabeza.
  2. Facebook no es una plataforma neutral: Por más que al bueno de Zuckerberg le gustaría que fuese. Cualquier cosa que haga (o deje de hacer) impacta en la sociedad. Por detrás, temas como las cámaras de eco y la teoría de las burbujas que ya he explicado hasta la saciedad, y que en efecto pueden moldear la realidad de un país, coronando o destronando a los reyes que a priori parecía que tenían todo de su lado. Mientras antes se den cuenta estas plataformas de este hecho, antes se rendirán a la evidencia de que en su afán de ser el medio de información de sus usuarios, se han transformado en, ¡sorpresa!, un medio de comunicación. Medio que necesita como el comer un equipo editorial lo más heterogéneo posible, y que por ahora ningún algoritmo podrá sustituir.
  3. El ciudadano medio es gilipollas: Se puede decir más alto pero no más claro. La televisión y las redes sociales son hoy en día los dos canales masivos de información del grueso de la sociedad. Dos canales que viven, precisamente, del tráfico que generan. ¿Y cómo se obtiene más tráfico? Dando al espectador lo que quiere ver. Es decir, la realidad que ese espectador quiere que le repitan. De ahí que el negocio de los hoax siga estando presente. ¿Qué hay más rentable que generar noticias que animen a ser clickadas y consumidas, aunque sean pura falacia?

Represalias frente a la proliferación de hoax

¿De qué nos ha servido todo esto? Pues al parecer para que algunos de los agentes implicados, y en vista a la oleada de críticas que van a caer a lo largo de las próximas jornadas, anuncien medidas que hace tiempo deberían haber anunciado.


Google asegurando que plantea prohibir el uso de su plataforma publicitaria (EN) a las páginas conocidas por ser un hervidero de noticias falsas. Eso sí, ni rastro del cómo lo va a hacer ni de que haya interés de eliminarlas de las búsquedas.

Por su parte, Facebook considera meter a este tipo de medios dentro de su lista de páginas no permitidas para Audience Network (EN), lo que les imposibilitaría utilizar la red social como canal de difusión de su contenido (como ocurre hoy en día con la mayoría de páginas porno).

Y ya le aviso que hecha la ley hecha la trampa. Porque, habida cuenta del negocio que mueve este tipo de contenido (negocio del que también viven plataformas como Google y Facebook) la lucha se plantea larga.

¿Dónde ponemos el límite entre un medio que inventa noticias y otro medio que dice la verdad? ¿Qué podemos considerar realidad en un escenario informativo basado en la interpretación de los hechos? ¿En qué momento el afán de estas plataformas por servir neutralmente la información no acabará transformándose en una suerte de censura editorial?

Hay muchísimas dudas que resolver, y es que resulta muy difícil definir matemáticamente algo que bebe directamente de la subjetividad del receptor.

¿No sería mejor forzar al usuario a ser consciente de las numerosas interpretaciones que puede tener una misma noticia? Quizás mostrándole, como ha empezado a hacer recientemente Google News, titulares relacionados provenientes de diversas fuentes lo más heterogéneas posibles, con la esperanza que esa presunta capacidad crítica del que está detrás de la pantalla se ponga a funcionar.

Aunque claro, entonces romperíamos la cámara de eco, y Facebook, o Google, o Twitter, o la red que desee, se volvería un páramo hostil para nuestros limitados cerebros. Un escenario en el que tendríamos que enfrentarnos continuamente a cosas que no queremos ver. Donde lo mismo hasta nos llevan la contraria. Lo cual se traduce en menos interacción, ergo, menos negocio para estas plataformas.


El acabose, vamos.

Y ni usted, ni un servidor, ni el grueso de esa sociedad críticamente atrofiada, queremos eso, ¿verdad?