Este es una de las newsletters antiguas que se enviaron de forma exclusiva a los miembros del Club Negocios Seguros, y que se liberan públicamente un mes más tarde.

Si quieres recibir las actuales cada martes y jueves en tu bandeja de correo, hazte miembro ahora.

*******

Negocios Seguros

apple pornografia infantil

Estos días nos enterábamos que Apple implementará a finales de este año en iOS15, iPadOS15, WatchOS 8 y MacOS Monterrey una nueva herramienta, llamada NeuralMatch (EN), que permitirá identificar contenido de pornografía infantil en los dispositivos de los usuarios.

Algo como esto no es nuevo en la industria. Sin ir más lejos, tanto Google, como Microsoft o Dropbox implementan sistemas semejantes en sus herramientas en la nube, utilizando, como cabría esperar, los hashes de contenido pornográfico infantil conocido (si subes una foto o vídeo y su hash coincide con alguno de los que tienen fichados, el contenido se elimina y, si fuera necesario, se avisaría a las autoridades pertinentes).

El problema por supuesto no es ese, sino que por primera vez (que sepamos…), la herramienta de Apple se diseña con el objetivo de no analizar el contenido subido a iCloud, sino directamente el que almacenamos en local en nuestros dispositivos.

Y esto es lo que me mosquea, porque abre la puerta a muchísimas tergiversaciones.

Cómo funciona NeuralMatch y qué podemos esperar de él

A priori, como decía, NeuralMatch analiza los hashes de nuestra biblioteca en local. Pero para hacerlo, curiosamente, requiere que el usuario tenga activado el servicio de sincronización con iCloud.

Y digo que esto es curioso porque no entiendo, entonces, el por qué Apple se empeña en analizar los hashes en local… cuando a priori podría hacerlo perfectamente con el contenido sincronizado en iCloud.

Hubiera evitado cualquier posible suspicacia por parte de los usuarios, y todos felices, a sabiendas que creo que ya nadie asume que algo que subes al cloud no puede estar monitorizado, aunque sea mediante hash y sin poder saber realmente qué contiene ese archivo.

Pero no. Por alguna razón que se me escapa, Apple realiza este análisis en local, y es ahí donde vienen los problemas, ya que hoy, en efecto, NeuralMatch sirve para comparar contenido en local con una base de datos de hashes asociada a contenido de pornografía infantil (es decir, algo a todas luces negativo para la sociedad), pero ¿quién les quita que el día de mañana no se compare con una base de datos de, por ejemplo, poseedores de armas, o rubios, o simpatizantes de una manifestación?

¿Ves por dónde voy?

NeuralMatch puede haber sido creado con la mejor intención de todas (luchar contra la pornografía infantil), pero en la práctica sirve de puerta trasera para que las autoridades de algún país la utilicen como herramienta de espionaje e identificación masiva. Apple, como cualquier otra compañía, está obligada a cumplir la legislación local, y eso pasa por aceptar, como ya ha pasado y seguirá pasando, decisiones gubernamentales que pueden poner en jaque la privacidad, e incluso la seguridad, de sus usuarios.

De hecho sorprende que algo así venga de la mano precisamente de esa empresa que se ha autoproclamado ser la garante tecnológica de la privacidad, por eso de que su modelo de negocio no está basado en la explotación de datos, sino en la venta de productos y servicios, y que un escenario donde la publicidad digital sea menos eficiente supondría, de facto, un escenario con mayores ganancias para Cupertino, al ver incrementado su negocio de compras in-app y suscripciones de la App Store.

La estrategia seguida hasta ahora por buena parte de las grandes tecnológicas sí me parece mucho más acertada. Apostar por el cifrado de punto a punto y por defecto, de forma que la propia empresa no tenga capacidad de acceder al contenido de los usuarios. Algo que les permite negarse a dar acceso a terceros (como un gobierno), al ser ellos mismos incapaces de hacerlo.

Con movimientos como estos, se rompe parte de ese discurso buenrollista de una empresa pro-privacidad, y se atenta, para colmo, con los límites tan manidos de los derechos humanos.

Como otras tantas veces, con la excusa de un mal mayor que, como suele ocurrir, es infinitamente menos común. Pasó con el terrorismo, y ahora está pasando con la pornografía infantil.

Excusas, a fin de cuentas, para romper el derecho de cualquiera de nosotros a hacer lo que nos salga de los huevos con unos dispositivos que hemos comprado.

________

Si quieres recibir contenido exclusivo como éste el día uno y directamente en tu bandeja de correo cada martes y jueves, hazte miembro del Club «NEGOCIOS SEGUROS».

Banner negocios seguros