Hablando sobre la crisis de Facebook en La Nueva España

LNE PabloYglesias

El pasado viernes Eduardo Llagar, redactor jefe de La Nueva España, se ponía en contacto conmigo para hacerme unas preguntas sobre el que ha sido uno de los temas más candentes de la semana: el abuso por parte de Cambridge Analytica de 50 millones de datos de usuarios de FB estadounidenses para ayudar a la segmentación de potenciales votantes en la campaña de Donald Trump.

Un tema que ya había tratado en profundidad por estos lares, y que aún así, me ha servido para volver a escribir sobre las declaraciones de Facebook, de su CEO y el impacto que ha tenido a varios días vista, en lo que ya se ha considerado la peor crisis reputacional de la red social.

Algunas de mis declaraciones salieron este domingo en un reportaje en el periódico.

Sin más, dejo por aquí las preguntas que me hizo llegar Eduardo con sus respectivas respuestas.

¿Qué opinión le merece el escándalo de la filtración de datos de Facebook?

Como comentaba el mismo lunes después de leer la noticia, estamos ante algo que tarde o temprano iba a ocurrir.

La red social ofrecía dentro de su estrategia para posicionarse como referente del sector, y a sabiendas que hablamos de una de las bases de datos más completas de la historia de la civilización, acceso a dicha información a entidades interesadas en utilizar estos datos con fines puramente estadísticos y académicos. Algo que es intrínsecamente positivo, habida cuenta de que nos permite entender mejor cómo se comportan los usuarios en Internet, y aceptando que nuestras relaciones digitales tienden a tener un eco en el mundo físico, también a comprender toda la ideosincrasia de una sociedad en pleno siglo XXI.

¿Cuál es el problema entonces? Que hablamos de un contrato, y por ende, de la posibilidad de que tarde o temprano alguien le de por tergiversarlo. Cosa que ha ocurrido esta vez con Cambridge Analytica, y que muy probablemente habrá ocurrido otras veces a un nivel, o con un impacto social, mucho menor.

¿El problema está en la filtración en sí o en que el mismo modelo de negocio de Facebook está sustentado precisamente en la explotación de los datos que los usuarios aportan, a veces de manera no muy consciente?

El modelo de negocio de Facebook no es nuevo ni debería llamarnos a engaño. Es el que sustenta Internet desde que la Red dejó de ser simplemente un juego de investigadores universitarios.

Si no pagas con dinero, el negocio eres tú.

Es decir, tus datos. Y en este mismo tablero de juego están Facebook, Amazon, Google, Twitter, Snapchat, y en definitiva todos los grandes servicios de Internet.

En este caso yo centraría el debate en dos puntos principales:

  • Se ha hecho patente que los sistemas de control de la compañía eran insuficientes: Cosa que, de hecho, ha tenido que reconocer Zuckerberg estos días (EN), y que desde la Gran F ya han asegurado que van a mejorar.
  • Nos falta muchísima más educación digital: Cuando una noticia así sale la gente se vuelve loca, cayendo en la consideración de cómo funciona Internet. Y eso me preocupa, ya que todo esto lleva siendo así algo más de una década, y muchos llevamos años alertando de los riesgos (y las oportunidades) que ofrecen todas estas herramientas sin más impacto que el esperable dentro de aquellos que se dedican al sector de la ciberseguridad.

¿Qué opina del uso del big data y los algoritmos para la manipulación política o del consumidor? ¿Hasta qué punto cree que esas tecnologías son conocidas por el usuario común?

Ahí está el problema. Que el usuario/ciudadano medio no tiene ni idea de esto, y muchos de estos servicios han crecido bajo la aparente premisa de ser ecosistemas informativos neutrales.

Mire, cuando alguien lee un periódico, o pone un canal de televisión, o sintoniza una radio específica, sabe que más allá del interés innato en el periodista por informar existe una línea editorial marcada.

Esto en plataformas como Facebook o en búsquedas en Google también ocurre, lo único que esa línea editorial no está marcada por un equipo de personas o entidades, sino por una serie de algoritmos que deciden qué vemos y qué no en base a lo que esos mismos algoritmos entienden que podría interesarnos, y en base al negocio que sustenta esa plataforma.

Es decir, que si usted, por ejemplo, es una persona de izquierdas, muy probablemente se enfrente en su timeline de Facebook a contenido publicado por sus amigos que sigue una línea editorial más cercana a la suya, ocultando de ese mismo timeline el contenido que publiquen sus amigos quizás ya no tan cercano, políticamente hablando, a usted.

Esto genera lo que en el sector se llama burbujas de filtros, y que son por tanto las principales culpables del éxito que están teniendo las campañas de fake news o, como bien señala, las campañas publicitarias en general (sean o no con intereses económicos o políticos).

Ya en su día Obama se hizo con el control de la Casa Blanca gracias a una segmentación brillante de sus potenciales votantes en derroteros digitales, y en estas últimas elecciones Mariano Rajoy volvió a ser presidente de España gracias, en parte, a que su partido utilizó la misma estrategia (ES) que en su día utilizaron los demócratas en EEUU.

La única diferencia con el caso de Trump es que en estas dos ocasiones el trabajo se hizo dentro de los límites de la legalidad…

¿Cómo simple usuario se fía de la seguridad de sus datos en la red social? ¿Respalda la campaña de borrarse de Facebook?

Realmente sí, pero con matices.

Tenemos que ser conscientes de una vez que todo lo que hagamos en el mundo digital deja rastro. Y que aunque existe una suerte de parametrización de la privacidad que, en teoría, evitaría que aquello que publiquemos sea visible para cualquiera, hay que tener siempre en mente antes de publicar algo qué pasaría si esto acabara siendo visible para nuestro peor enemigo.

Parece una tontería, pero partir de estas dos hipótesis evita muchísimos problemas.

¿Creo que la gente debería borrarse de Facebook? Por supuesto que no. Lo que sí creo es que deberían entender los riesgos que supone tener actividad dentro de esa plataforma (y del resto, ojo), y utilizarlas de forma correcta.

Así que seguir poniendo actualizaciones banales y manteniendo relaciones con el resto de usuarios sin miedo. Simplemente aceptando que debemos ofrecer en Internet nuestra mejor cara. Aquello que no nos importe que se sepa de nosotros.

¿Hay que poner en marcha una nueva regulación legal de las redes sociales o “alfabetizar” a los usuarios sobre los peligros de su uso?

Este tema sí me parece interesante.

Sobre lo segundo ya he dejado clara mi opinión. Por supuesto que hay que “alfabetizar”. Es absurdo que en pleno siglo XXI sigamos prohibiendo el uso de smartphones en la clase, cuando esos alumnos el día de mañana van a utilizar la tecnología para absolutamente todo.

En vez de prohibirlo lo que se debería hacer es educar a los profesores para que entiendan las herramientas digitales y sepan encauzar a los niños en el buen uso de las mismas. Cosa que espero llegará poco a poco, conforme las nuevas generaciones de profesionales de la educación vayan cogiendo el testigo de los actuales.

Sobre lo primero, yo siempre he sido defensor de una regulación limitada. El papel de los gobiernos debería ser el de acompañar con la regulación a la evolución tecnológica. El papel de las compañías, el de velar por su negocio, que en el caso del mundo digital se basa, precisamente, en las garantías y confianza que los usuarios podamos depositar en su ecosistema.

Hablamos por tanto de una serie de presiones en juego que, de hecho, han llevado a los chicos de Facebook a replantear su política de acuerdos con otras organizaciones bajo tres puntos:

  • Auditoría exahustiva a todas las aplicaciones que pidan acceso a los datos: Esto ataca de frente con uno de los mayores retos de Facebook. La transparencia. Si de verdad quieren seguir siendo los reyes del apartado social les va a tocar aceptar que terceros puedan auditar lo que está ocurriendo dentro de sus murallas. Miles de ojos ven más que unos cientos, por lo que no podría estar más de acuerdo con la medida.
  • Restricción del acceso a datos personales: Algo que los investigadores de seguridad llevamos años pidiendo. A día de hoy cualquiera crea una aplicación tonta para Facebook que nos transforme en una foto al género opuesto, o que nos diga a qué personaje de Juego de Tronos nos parecemos, y tenemos acceso de pronto a cientos de miles de perfiles.
  • Más información para los usuarios sobre las aplicaciones que utilizan: Aunque temo que no sirva de mucho, que a la gente le gusta poco leer. De hecho, hay que reconocer que estos grandes servicios están cada vez más simplificando sus opciones de seguridad y privacidad. Dan muchísima información y bastante control al usuario para que sea éste quien decida cómo opera su cuenta. Otra cosa es que lo hagan a sabiendas que el grueso de usuarios no tienen interés (ni los conocimientos) para hacerlo.

¿Cómo cree que afectará este escándalo a Facebook? ¿Qué medidas tiene que tomar la empresa para evitar casos como éste, o la difusión de noticias falsas o de contenidos violentos sin control? ¿Puede la red manejar todo el contenido que generan sus 2.000 millones de usuarios?

Afectará en la medida de que ha sido muy sonado y esa presión siempre es positiva para la innovación tecnológica. Ahora parecen motivados a cambiar, aunque sea algo, las cosas. A abrirse un poco, e incluso a barajar si tiene sentido que estuvieran supeditados a una regulación estatal.

Pero ojo, que tampoco hay que caer en la pretensión de que con mayor regulación esto sería un mundo más feliz. Sin ir más lejos tenemos ejemplos a patadas de ecosistemas digitales muy regulados (véase China, véase Rusia) que claramente no son positivos para las libertades del usuario/ciudadano.

El éxito de las plataformas digitales se ha basado desde un principio en la automoderación del contenido que publican sus propios usuarios. Somos el resto de usuarios quienes sugerimos que un contenido puede ser inapropiado, lo que hace saltar las alarmas en el servicio, y a base de varias alertas, dicho contenido acaba siendo silenciado.

El caso es que estamos viviendo un momento en el que somos conscientes de que todas estas mecánicas son fácilmente tergiversables por aquellos que tengan el suficiente interés y los suficientes recursos como para llevarlo a cabo. Por menos de medio millón de euros es posible influenciar a un porcentaje significativo de la sociedad en temas tan críticos como puede ser la intención de voto.

Google, Facebook y compañía son conscientes de su parte de culpa, y están haciendo todo lo posible para minimizar el impacto de dichas tergiversaciones. Pero no es nada fácil: hablamos de buscar el equilibrio entre control del discurso y libertad, a sabiendas que ambos extremos entrañan problemáticas complejas de afrontar.