Víctor Pérez, editor de Tecnología en Business Insider España, se ponía en contacto recientemente con AERCO-PSM (ES) para preparar un reportaje sobre los problemas de moderación que han tenido Google, Facebook y Twitter (ES) en los últimos meses (Malware ‘AdultSwine’, vídeos poco apropiados en YouTube Kids o depredadores sexuales en Periscope).
A Humanes (el presi) le pareció oportuno pasarle la pelota al actual (y flamante, je) Vocal de Digitalización, a sabiendas que estos temas «me ponen», y gustoso recogí el testigo. En la pieza también se pronuncian al respecto compañeros de profesión como Borja Adsuara (ES), Susana Lluna (ES) y Rubén Sánchez (ES), por lo que creo que ha quedado un artículo bastante completo, que cubre adecuadamente toda la complejidad que el tema requiere (aunque el titular no lo atestigüe).
La pieza ya está publicada, así que hago lo propio como otras tantas veces, dejando por aquí mis respuestas a las preguntas que me lanzaba Víctor.
¿Están fallando las grandes compañías tecnológicas a la hora de proteger a los usuarios frente a las noticias falsas? ¿Qué pueden exigir los usuarios? ¿Y los Estados?
Voy a parecer gallego en mi respuesta (y mira que soy de cerca, pero no lo suficiente, jajaj), pero lo cierto es que depende de qué consideremos fallo. Realmente los grandes servicios de Internet se han dado cuenta ahora del problema… porque es ahora cuando hemos experimentado sus implicaciones a un nivel macroeconómico y político sin precedentes en la historia.
Nunca antes habíamos tenido al alcance unas herramientas tan globales, y por tanto, sujetas a tergiversaciones que han llegado a cambiar, ya de forma demostrada, la geopolítica de los países de occidente. El caso de Trump en EEUU, la victoria (tercer puesto) de la extrema derecha en Alemania o incluso el apoteósico ascenso del partido de Le Pen en Francia son algunos ejemplos en los que las campañas digitales, como mínimo, han ayudado a cambiar el statu quo esperable en países democráticos.
Como ya expliqué hace unos meses, influir en el voto de un porcentaje de los ciudadanos de un país cuesta, de media, unos 360.000 euros. Que no es nada para lo que estamos hablando, como te habrás dado cuenta…
Decía que depende de lo que consideremos fallo porque al igual que ha surgido un claro malestar por el avance de las noticias falsas, estas herramientas, y por tanto, las compañías que están detrás, han cambiado también para bien la forma de comunicación de toda la sociedad. Ahora somos capaces de estar en contacto con personas que en otro tiempo, y aunque fuera únicamente por la distancia que nos separa, hubiese sido materialmente imposible que llegara a darse.
¿Qué podemos exigir como usuarios? Pues lo mismo, justo, que se están exigiendo estas compañías por intereses puramente económicos. Que las doten de los sistemas de control y validación adecuados para recuperar la confianza perdida.
Teniendo en cuenta que, lamentablemente, redes como Facebook se han posicionado como uno de los principales canales de descubrimiento de información de la actualidad (algo de lo que ya te digo que un servidor está claramente en contra), lo suyo, al menos, es que es la propia red sea capaz de recomendar al usuario que está a punto de consumir esa información enlaces de diversa línea editorial y, hasta cierto punto (es más fácil decirlo que hacerlo (EN)), contrastados, que le permita al usuario de un simple vistazo hacerse a la idea de si lo que va a consumir se aleja mucho de lo que el resto parece opinar.
El problema de las redes sociales, y en general del Internet que hemos creado, es que se ve fuertemente influenciado por las llamadas burbujas de filtros (todo el mundo está hablando de esto, todos opinan casi igual que yo…), y eso lleva a engaños. Hay que ser conscientes de que lo que vemos en Facebook, o en Google, o en Twitter, o en donde sea, no deja de ser un pequeño universo con una línea editorial que en los periódicos tradicionales venía dada por la junta editorial, y que en estos servicios viene dado por lo que el algoritmo entiende que quieres consumir en base a todo el conocimiento que tiene de ti.
Es decir, más formación, que ahí es donde entra el papel de los Estados, y no tanto en intentar controlar el discurso, como recientemente parecían estar interesados en hacer en Francia (ES).
¿Deberían los niños aprender en la escuela cómo identificar las fake news?
Los niños, los padres y los abuelos. Todo el que tenga en su mano un dispositivo con acceso a Internet debería, como mínimo, entender el funcionamiento de esas herramientas que está utilizando a diario. Cosa que no ocurre.
Por supuesto que estos temas deberían tratarse en la escuela. E iría aún más lejos…
¿Tiene sentido que sigamos haciendo exámenes basados en el conocimiento adquirido de antemano por los niños, a sabiendas que el día de mañana en el trabajo van a tener 24/7 acceso a un dispositivo donde está todo el conocimiento del mundo? ¿Tiene sentido prohibir los dispositivos electrónicos en las aulas a sabiendas que es el pan nuestro de cada día y posiblemente la herramienta más potente que ha creado la humanidad desde el principio de nuestra historia? ¿No sería más «inteligente» enseñarles a trabajar eficazmente con la información, labrándoles una capacidad crítica que de seguro van a necesitar el día de mañana?
Entiendo que el sistema educativo vaya más lento que lo que evoluciona la sociedad. A fin de cuentas, los que ahora son profesores vienen con un conocimiento adquirido de generaciones pasadas (ergo de un ecosistema informativo que ya huele a añejo), y los que vengan a partir de ahora lo harán con ese conjunto de caracteres adquiridos de generaciones anteriores. Pero por favor, seamos sensatos y obliguemos a los futuros profesores ya a entender la tecnología, para que al menos en un par de décadas los niños salgan preparados para el mundo que a nosotros nos ha tocado vivir…
El 50% de los niños menores de 10 años tiene móvil y muchos de ellos ya tienen perfiles en las redes sociales, ¿hacen lo suficiente las plataformas como Facebook, Twitter o Instagram para proteger a los menores de edad a la vista de casos como el de YouTube Kids o la presencia de depredadores sexuales en Periscope?
La pregunta tiene trampa, jejeje. En ambos casos está claro que nunca va a ser suficiente. Google ya ha anunciado la decisión de contratar a cerca de 10.000 moderadores (EN) para intentar combatir esas tergiversaciones de las que hablas en Youtube Kids, y que aplican en la misma medida a Youtube. Y en Periscope/Instagram/Facebook/Twitter la cosa está exactamente igual.
Todas estas plataformas nacieron bajo el principio de la intermediación digital. Es decir, nosotros creamos la plataforma y son los propios usuarios quienes generan el contenido y lo revuelven. Esto, a nivel de negocio, es un win-win claro, ya que delega toda responsabilidad en el usuario.
El problema, como no, surge cuando nos damos cuenta de que no todos los usuarios están interesados en utilizar la plataforma de forma productiva (a nivel ético, me refiero), y que aunque todas estas plataformas cuentan con sistemas de denuncia/alerta, la inteligencia colectiva se vuelve tardía cuando el contenido malicioso, entre que es o no denunciado, entre que es o no revisado, ha estado en el aire X horas y por tanto ha llegado a un número significativo de usuarios (EN).
El papel de estas empresas, en efecto, va a ser mejorar los sistemas de control, seguramente delegando parte de esa responsabilidad en herramientas automatizadas (inteligencia artificial, machine learning) que reconozcan patrones conductuales habitualmente asociados a contenido inadecuado, y también en ese ejército de moderadores humanos necesarios en último término para la toma de decisión ante casos que, recordemos, tienen un factor subjetivo, social, cultural y religioso acentuado.
Edit una semana más tarde: He escrito otra pieza donde demuestro cómo empresas de la talla de Google están moviendo cielo y tierra para mejorar esta situación. Puedes echarle un ojo por aquí.