Apple tiene una capacidad única para crear expectación con sus desarrollos. Es una empresa que vive de las reinvenciones, y últimamente, está apostando fuerte por diferenciarse de la competencia (¡Hola Google!) en aquello que la gran G anda un poco floja: la privacidad.
La cuestión es que el mundo tecnológico está tirando desde hace unos años a la búsqueda de la inteligencia contextual. A resultar invisible y profundamente valioso al usuario. Algo de lo que precisamente la competencia es ama y señora, como demostraba de nuevo recientemente. Y esto entra en guerra con una Apple que ha hecho suyo el eslogan de la protección al usuario.
Para que un dispositivo, una tecnología, sea capaz de ofrecer inteligencia al usuario, debe conocerle. Y esto pasa por obtener y explotar información del mismo. Datos sensibles (hábitos de uso, necesidades del día a día, historial,…) que exponen la privacidad de quienes lo utilizan.
Pero, ¿y si estuviéramos en la potestad de explotar esa información sin salir del dispositivo? ¿Y si aunque saliera, se contara con la capacidad de explotarla sin que el usuario vea mermada su privacidad?
El discurso de Apple en este último WWDC ha sido precisamente este: El de que ellos son capaces de ofrecer inteligencia sin mermar la privacidad del usuario. De dos maneras, de hecho, sobre las cuales me gustaría hablar en profundidad en este artículo.
El reconocimiento de imágenes local
No es la primera vez que Apple plantea un desarrollo semejante.
En la arquitectura de Apple Pay podemos ver un símil que en su día critiqué positivamente. A la hora de identificar al usuario para realizar un pago, es necesario hacer una consulta que sin lugar a duda expone la privacidad del usuario. Apple en este caso decidió ofuscar esa consulta mediante un paso intermedio que se produce en el propio dispositivo, utilizando para ello un chip específico (aislado a priori del resto de componentes accesibles mediante APIs públicas) que se encarga de “tokenizar” la identidad del usuario, de manera que lo que reciben los servidores externos no es un dato identificable sino una variable anonimizada dependiente de la verdadera identidad del mismo.
Es decir, que parte de esta inteligencia necesaria para operar se realiza en el propio dispositivo y no en los servidores de la compañía, lo que minimiza la exposición del usuario.
El vicepresidente ejecutivo de ingeniería de software de Apple, Craig Federighi, anunciaba la llegada de álbumes virtuales inteligentes a Fotos (la app multimedia de iOS) para este otoño.
La idea detrás de los álbumes virtuales es que éstos se generen de manera automática, ordenando las fotografías según criterios específicos que van más allá de los metadatos (cronología, lugar donde se ha sacado,…), aplicando reconocimiento facial y de objetos (sí, más reconocimiento biométrico :)), que permitirá al usuario realizar búsquedas en su biblioteca del tipo “Fotos de Pepe” o “Fotos de mi mascota”.
Como ya se habrá dado cuenta, nada que Google no ofrezca ya con Google Fotos, que Facebook no ofrezca en su plataforma, pero con una diferencia. A priori, ese reconocimiento se realiza únicamente a nivel local, en el propio dispositivo, y no en los servidores de la compañía:
“Cuando se trata de ejecutar el aprendizaje profundo avanzado y analizar vuestros datos, lo hacemos en vuestros propios dispositivos, manteniendo así vuestro control sobre vuestros datos personales”.
La gestión de la inteligencia contextual diferencial
Y pasaría lo mismo con la inteligencia que espera ofrecer el teclado QuickType de iOS a la hora de sugerir palabras basadas no solo en su biblioteca, sino en el contexto en el que se esté escribiendo.
Google ofrece en Inbox un sistema semejante, capaz incluso de entender cómo solemos redactar los correos para hacerse pasar por nosotros y responderlos, a costa de realizar ese análisis en sus servidores (ergo, compartir los datos con los mismos).
QuickType parece haber encontrado la manera de realizar algo parecido amparándose en el paradigma de la Privacidad Diferencial, un sistema estadístico que separa identidad de contenido, de manera que a priori es posible explotar información sin exponer la identidad de quien la ha generado.
Para ello hace uso de técnicas de ofuscación como el hasing (cifrado) de datos, el subsampling (hacer uso únicamente de parte de los mismos) y la inyección de ruido, que permite anonimizar volúmenes de información, como expliqué en su día.
El término fue acuñado ya por 2006 por los investigadores Cynthia Dwork, Frank McSherry, Kobbi Nissim y Adam Smith en un paper (EN/PDF) bajo la tutela de Microsoft, y es aplicado hoy en día en numerosos entornos, aunque de manera muy específica, como ocurre con el sistema RAPPOR (EN) o la Navegación Segura utilizada por Chrome para compartir información de consumo de manera anónima.
Por supuesto, no es oro todo lo que reluce, y como ya comenté en alguna que otra ocasión el presentar un entorno de explotación de datos anónimo con fines identificativos (ofrecer inteligencia al usuario en base a sus datos es un ejemplo) supone una carga considerable de recursos y una merma de la eficiencia de todo el sistema.
Si a ello sumamos la intención de, en la medida de lo posible, realizarlo dentro de los límites del hardware local, el problema aumenta exponencialmente, al afectar negativamente al uso del mismo, y aumentar considerablemente el gasto de batería según el uso que vayamos a darle.
De ahí que me parezca realmente interesante ver cómo Apple acaba por aplicar el concepto, aunque le adelanto que será en ámbitos muy específicos y acotados (como estos dos que acabamos de tratar), y que con el tiempo, irá expandiéndose al resto de servicios, siempre y cuando el hardware lo permita.
La duda está, como cabría esperar, en si será capaz de plantar cara a una industria que ha apostado por la inteligencia artificial sin más miramientos que a nivel puramente funcional, y que por ello, previsiblemente, evolucionará a un ritmo considerablemente mayor.
De si los usuarios estaremos dispuestos a seguir el ritmo pausado que a priori ofrece la privacidad diferencial, a sabiendas que la competencia tiene productos mucho más inteligentes, y mucho menos privados.
Y sobre todo, si aceptaremos sacrificar parte de esa comodidad que la nube nos ofrece por proteger nuestra privacidad.
Porque paradigmas como el de la privacidad diferencial y la gestión de inteligencia en local delegan mayores compromisos en el usuario. Si perdemos nuestro dispositivo, tendremos que volver a re-educar los sistemas de aprendizaje. Si perdemos nuestra contraseña de iCloud, perderemos para siempre el acceso al contenido almacenado en la nube.
Eso sí, el escenario pintado por Apple es un ejemplo de buen quehacer en tanto a evolución tecnológica sensible a los derechos del usuario. Falta por ver si el grueso de la sociedad aceptará el precio que hay que pagar por contar con unas tecnologías más privadas.
No sería la primera vez que Apple consigue, gracias a su hype mediático, ir a contracorriente de la industria. Y al menos, en este caso, todo apunta que es para mejor.
¿Tú piensas que apple pueda llegar a ser confiable en términos de privacidad?
Habiendo este tipo de información: https://prism-break.org/es/categories/ios/ ¿cómo confiar en ellos?
Saludos.
No hay que confiar. Es un movimiento que les interesa para ofrecer valor de cara a su competencia. Pero está claro que ahora es esto, y lo mismo mañana es otro.
Lo que no quita que al menos el movimiento va más alineado con los intereses del usuario del que podemos encontrar generalmente en Google, por ejemplo.
Bueno, eso es cierto.
Es muy interesante lo de la privacidad. Tal vez Google lo implemente. Sería bueno que siguiera ofreciendo publicidad y datos oportunos respetando tu anonimato.
Por lo pronto no me apura demasiado, aunque uno sabe que al estár conectado la privacidad es una falacia.
Apple ha tenido serios problemas con eso después del robo de las fotos en iCloud. Pero creo es una cuestión que afecta más a las celebridades.
Ahí el problema era realmente de mal uso de la tecnología por parte del cliente y no tanto por parte del proveedor. Lo que a una segunda lectura implica que el proveedor no ha tomado las medidas de seguridad oportunas (delegar en el usuario la responsabilidad suele ser mala idea).