Algoritmos como cortina de humo al debate sobre los sesgos de la web social

sesgo facebook

“Necesitas gente con diferentes opiniones y un ecosistema donde las personas puedan expresarse de forma clara. La gente no va a decir lo que piensa al poder a no ser que se cumplan estas directrices.

[…]Es así es como nosotros obtenemos no solo diferentes voces dentro de la compañía, sino también la seguridad de que estamos escuchando las diferentes voces de nuestros usuarios”.

Con estas palabras Sheryl Sandberg, COO de Facebook, se defendía hace un par de meses (EN) de las acusaciones por parte del partido republicano de supuesta lateralización a la hora de ofrecer a sus usuarios información política.

Ayer Zuckerberg, que está estos días por Roma, recalcaba ante una audiencia (EN) de estudiantes de la Universidad LUISS:

El mundo necesita empresas de noticias, pero también plataformas tecnológicas, que es lo que hacemos, y tomamos nuestro rol en esto muy seriamente.

[…]No, somos una empresa de tecnología, no una compañía de medios. Construimos las herramientas, no producimos ningún contenido.”

Esto pocos días después de haber despedido a todo el equipo subcontratado de periodistas (EN) que hasta ahora manualmente estaba catalogando las noticias de sus Trending Topics, sustituyéndolo por un algoritmo de inteligencia artificial.

El truco de la chistera

De fondo hay un debate que es el que me empuja a escribir sobre este culebrón.

¿Qué es Facebook? Una red social, sí. Pero cada vez más, el lugar donde el grueso de la sociedad se entera de las cosas.

Es decir, esa plataforma donde más de mil quinientos millones de usuarios están en contacto con sus amigos, y de paso, comparten y consumen la actualidad que a sus amigos les interesa, y que los algoritmos que rigen qué debe mostrarse y qué no han decidido que debe interesarles.

Un sistema que paulatinamente ha ido separándose del sesgo del profesional humano para ser gestionado por el sesgo de la máquina, muchísimo más impredecible, y si me apura, aún más peligroso.

Su papel por tanto es semejante al que ya están cubriendo con mayor o menor acierto los medios de comunicación, pese a que sí, ellos son “solo” una empresa de tecnología.

Mantienen informados a sus usuarios, y lo han hecho tan “bien” que la mayoría de medios han acabado por bajarse los pantalones y entender que ahora quien gestiona el canal ya no son ellos, sino las plataformas. Las empresas de tecnología como la del señor Zuckerberg.

Con una única salvedad: Facebook no genera la noticia, sino que son los propios usuarios y medios quienes lo hacen. Facebook “únicamente” pone la plataforma y se encarga de que esa noticia llegue a todos aquellos que debería llegar. Vamos, todo lo demás :).

Y esta matización es tan crítica para el negocio de Zuck como parece.

Porque de ser considerado como Google (buscador), un sistema editorializado, todos aquellos que a día de hoy han aplaudido la neutralidad de una plataforma sin sesgos caerán en la cuenta de que todo es una falacia.

Que por mucha máquina que esté detrás de los engranajes, hay sesgos en cualquier medio de comunicación y cualquier “empresa de tecnología que suministra información creada por terceros”. Que lo que consumimos, le guste a Zuck o no, no solo depende del profiling en el que se ha basado el algoritmo de recomendación, sino también de las limitaciones y sesgos del propio equipo de desarrollo de la plataforma.

En cómo ha sido estructurada cada una de las interacciones y esas miles de líneas de código que tendrá el monstruo. En los sucesivos parches que precisará. En todo lo que el algoritmo sea capaz de aprender. Y como ya hemos visto con anterioridad, en la poca heterogeneidad que tendrá el universo de estudio, al ser virtualmente imposible que cubra toda la complejidad de nuestro conocimiento.

Un sesgo que aparece tanto si quien está detrás es un equipo de personas como si se trata de un algoritmo de IA.

La falacia de la neutralidad y objetividad algorítmica

El movimiento es una simple cortina de humo que permitirá previsiblemente contentar a ese sector político preocupado por la aparente subjetividad de la herramienta.

Simplemente porque parte de la hipótesis de que puesto que la mayoría de trabajadores tecnológicos del Valle del Silicio parecen más cercanos ideológicamente a los demócratas (EN), las herramientas que crean y alimentan deben estar sesgadas perniciosamente a sus intereses.

Que ojo, podría llegar a ocurrir sino fuera porque precisamente el equipo encargado de la curación de noticias ha sido instruido para minimizar hasta el absurdo este hecho.

Esos analistas que estaban evitando que se cuelen noticias de clickbaiting, que formaban un equipo lo más heterogéneo posible, y que habían sido educados para ser profesionales en su trabajo, dejando de lado su naturaleza subjetiva, han sido despedidos.

Facebook apuesta entonces por un algoritmo que en las primeras horas ya ha demostrado ser incapaz de reconocer titulares pretenciosos (ES), que se espera que vaya aprendiendo con el tiempo a pensar como ya lo hacían los analistas humanos, con la esperanza de que algún día entienda que los sesgos a los que va a estar expuesto por el universo de datos que está utilizando para aprender son sesgos y no representan la heterogeneidad de nuestro mundo, y que tiene para bien y para mal las mismas limitaciones que todos nosotros, habida cuenta de que ha sido programado por ingenieros (otros humanos, por si se lo pregunta).

Pero la noticia es que en efecto la máquina ha ganado al hombre. Y que ahora ya podemos usar tranquilos Facebook porque esta plataforma no va a intentar controlar nuestra intención de voto, amparada en una supuesta neutralidad algorítmica tan utópica como deseable.

Empieza a temer ahora con mayor intensidad la experiencia de uso en la plataforma, y si me quiere hacer caso, minimice su impacto lo máximo posible configurándola adecuadamente, siendo consciente de que lo que ahí verá será solo una ínfima parte hiper-sesgada de la realidad que nos rodea (cámaras de eco).

Porque ahora la compañía ha hipotecado su neutralidad, anteriormente gestionada por un equipo heterogéneo de personas formadas para ello, en una inteligencia artificial inexperta y profundamente limitada. Como mínimo al nivel de ese universo acotado que está utilizando para aprender. Como mínimo al nivel de esos ingenieros presuntamente objetivos que le han dado vida.