Este es una de las newsletters antiguas que se enviaron de forma exclusiva a los miembros del Club Negocios Seguros, y que se liberan públicamente un mes más tarde.
Si quieres recibir las actuales cada martes y jueves en tu bandeja de correo, hazte miembro ahora.
*******
Negocios Seguros
Habemus nuevo drama en el mundo tecnológico.
Con el comienzo de las Navidades, Google aprovechó para actualizar la política de uso de Google Drive, incluyendo una cláusula que permitiría a la compañía restringir el acceso a nuestros propios archivos, si los de Mountain View entendían que su contenido viola sus políticas (EN):
«Es posible que revisemos el contenido para determinar si es ilegal o infringe nuestras Políticas del Programa, y puede que lo retiremos o nos neguemos a publicarlo si tenemos razones suficientes para considerar que infringe nuestras políticas o la ley».
Esto no es que, per sé, sea nada nuevo.
Creo que por estos lares todos hemos asumido que si almacenamos documentos en una plataforma en la nube, estamos sujetos a un potencial escrutinio por parte del proveedor, y al potencial futuro bloqueo de parte o la totalidad de dicho contenido si este infringe las leyes vigentes.
El tema no es ese.
Google afirma que lo que pretende perseguir con estas políticas va desde el alojamiento de malware a los documentos sexualmente explícitos, pasando por el discurso de odio y «contenido que ponga en peligro a los niños».
Es decir, contenido que creo que todos estamos contentos con que desaparezca de Internet (o cuanto menos sea más complicado compartirlo con terceros).
Sin embargo, lo verdaderamente importante de este movimiento es que Google no ha definido claramente qué contenidos resultan ‘abusivos’ según sus estándares.
Y te pongo dos ejemplos:
¿Las fotos íntimas de uno mismo infringen o no esta política sobre abusos?
¿Están protegidas por las excepciones «basadas en consideraciones artísticas, educativas, documentales o científicas», que Google dice contemplar?
Contenido ilegal vs contenido inapropiado
Este es el verdadero problema detrás de movimientos como este, que para colmo empiezan a ser habituales en el sector.
Sin ir más lejos, ahí tenemos la futura ley Iceta española, de la cual ya hablamos largo y tendido hace unas semanas, o la DSA (EN/Digital Services Act) europea. Dos leyes que tienen como objetivo forzar a que sea la propia plataforma la que previamente, y por sus propios medios, se asegure de que los usuarios no hacen uso ilícito de sus servicios.
¿En qué se traduce esto? Pues a todas luces en una censura automática, masiva y previa que para colmo va en contra del derecho a privacidad recogido por los Derechos Humanos, habida cuenta de que es imposible realizar este tipo de análisis de forma manual, y mucho menos si el contenido está cifrado de punto a punto.
De pronto, son las plataformas culpables del contenido que sus usuarios suban a ellas, y por ende, antes de enfrentarse a demandas del lobby o gobierno de turno, lo más cómodo para una empresa será bloquear por defecto todo lo potencialmente demandable.
Evitarse problemas, a fin de cuentas, a cambio de limitar de forma artificial la funcionalidad y libertades de sus clientes.
Justo lo mismo que pasaba hace ya unos meses con el NeuralMatch de Apple, presente en los nuevos iPhone.
¿Que qué me preocupa de estas medidas?
Pues su impacto a futuro:
Hoy es la lucha contra el terrorismo, o contra la pornografía infantil.
Y mañana acabamos sin posibilidad de publicar una foto del verano porque se nos ve un pezón. O porque no tenemos un cuerpo normativo. O porque en ese documento estamos hablando de drogas, o porque en ese servicio de mensajería escribimos la palabra ¡BOMBA!
________
Si quieres recibir contenido exclusivo como éste el día uno y directamente en tu bandeja de correo cada martes y jueves, hazte miembro del Club «NEGOCIOS SEGUROS».