Sobre privacidad e inteligencia global en los servicios de la gran G

aprendizaje profundo

Últimamente estoy dedicando bastantes artículos al mundo de la inteligencia artificial, y no es para menos.

En lo que va de año hemos visto cómo buena parte de la tecnología que teníamos a nuestra disposición ha dado el paso de una suerte de pre-inteligencia contextual a la inteligencia funcional, a que en verdad los algoritmos que están por detrás sean capaces de solucionar problemas por sí mismos, evitando cada vez más molestarnos si no es estrictamente necesario. Y sobre todo, volviéndose más invisibles, más ubicuos.

Las herramientas digitales maduran, se virtualizan, y usan internet como canal de comunicación, desdibujando la figura del hardware y mejorando considerablemente la experiencia del usuario.

De todos ellos, los servicios de Google son quizás el ejemplo más cercano y global que tenemos, y al que quería dedicar un artículo en profundidad. Una maraña de servicios cada vez más centralizados, que se apoyan unos en otros para ofrecer una experiencia e inmediatez que resultaría por separado imposible de hallar.

De hecho, es seguramente el aspecto más diferenciador que tiene Google respecto a su competencia directa (Apple, Microsoft, Facebook, Amazon). El nivel de anexión de sus servicios hace que en síntesis la experiencia que ofrezcan no pueda ser comparable a lo que pueden llegar a ofrecer estas otras compañías. Apple y Microsoft anteponiendo la privacidad del usuario (y haciendo caja con la venta del servicio y los dispositivos), y Facebook y Amazon siguiendo la estela de Google, pero con un conocimiento del cliente centrado en algunos campos específicos, lo que les permite ser muy eficientes en estos entornos (social, ventas), e incapaces de competir en otros.

La cuestión es que por mucha inteligencia que una Apple o un Facebook logren desarrollar en sus plataformas, la base de conocimiento que tiene Google de la mayoría de nosotros es tan superior que en la práctica la comparación deja claramente un vencedor.

Que la comodidad siempre se antepone, para bien y para mal. Y cuando un servicio empieza a funcionar como debe tan pronto empezamos a usarlo, y no tiene que pasar una fase de aprendizaje para adaptarse a nuestras necesidades, se apuesta por él y no por las alternativas, pese a que estas quizás puedan llegar a ser más eficaces en según qué casos, u ofrezcan una sensibilidad a la privacidad varios niveles por encima.

Así, me parece oportuno hablar de la tecnología que hay detrás de cada vez más servicios de la gran G, y cómo afecta esto a la definición de privacidad que hasta ahora manejábamos.

Redes neuronales, aprendizaje automático y aprendizaje profundo

Estuve tentado a ponerle al título la coletilla (en Google), pero después de escribirlo, me he dado cuenta de que esto es aplicable a cualquier otra empresa que apueste por los algoritmos de inteligencia.

Navegando por ahí me encuentro con un vídeo de Nat & Lo, dos trabajadoras de Google que han dedicado ese 20% del tiempo que la compañía les ofrece para proyectos propios, para realizar precisamente vídeos sobre lo que se hace dentro de Google. En este caso, el vídeo habla sobre las diferencias entre redes neuronales, aprendizaje automático y aprendizaje profundo:

 Ver en Youtube (EN)

Resumiendo:

  • Las redes neuronales son una representación informática del funcionamiento de las neuronas biológicas. Hemos hablado recientemente de ello, así que no me explayo más.
  • El aprendizaje automático consiste en usar redes neuronales para que los ordenadores tengan capacidad de “aprender”. De llegar a respuestas por sí mismos, sin respuestas preestablecidas.
  • El aprendizaje profundo es el uso del aprendizaje automático para enseñar a las máquinas cuestiones abstractas avanzadas, como reconocer caras, traducir textos…

Precisamente entre esas cuestiones abstractas avanzadas está la lengua. Una lengua escrita que poco a poco vamos dominando informáticamente, con productos como Google Translate (que ofrece esperpentos, pero te puede sacar de un apuro), y una lengua hablada, traducida en vídeos de Youtube de manera automática (de nuevo, con muchos fallos, pero aceptable) o incluso en streaming, con apenas una diferencia temporal milimétrica.

La proliferación de los asistentes virtuales, de la capacidad de “hablar” con la máquina, no es nueva, pero es ahora cuando llega realmente al usuario de a pie, puesto que es ahora, gracias al aprendizaje profundo, cuando tiene sentido apostar por ella para un producto comercial. En ese Smart Reply con el que Inbox será capaz de responder emails por nosotros (EN).

Lo interesante del machine learning es precisamente que conforme más interacciona, menor tasa de error ofrece. Sistemas de crowdsourcing como el de Google Translate (cualquiera puede ofrecer una traducción mejor, si cree que la que ofrece la máquina es inexacta) o la genialidad de implantar este tipo de programas para demostrar que no somos un bot (por si no lo sabe, el re-captcha es usado por Google para traducir direcciones de Google Maps, y digitalizar libros “automáticamente”), dan ahora sus frutos, con servicios que son capaces de defenderse relativamente bien en un entorno tan hostil como es la subjetividad con la que usamos los humanos el lenguaje oral y escrito.

El siguiente paso es la traducción informática de lo que la vista puede ver. Algo que los humanos aprendemos casi instintivamente a partir de cierta edad (entender que una señal de stop, y una señal de stop medio tapada por una rama de un árbol, es exactamente lo mismo), pero que a una máquina le cuesta horrores comprender.

Y hay apuestas en el mercado que de lo bien que funcionan dan hasta miedo. Google Photos es una de ellas. Un servicio que de pronto hace que eso de dedicarle tiempo a almacenar adecuadamente las fotos y vídeos que sacamos no tenga sentido. Que si buscamos el nombre de una persona, sea capaz de encontrarlo en nuestra galería, pero si buscamos al gato, también nos muestre todas las fotos donde un gato sale. Que sea incluso capaz de, proactivamente (y sin mediación nuestra), ofrecernos histogramas con un fin de semana de viaje, o unificar imágenes para obtener la mejor toma posible.

Comentaba ayer en el blog de SocialBrains las nuevas búsquedas visuales de Pinterest (ES), que vienen a solucionar el típico problema de querer encontrar algo y no acordarse cómo se llama (aunque tengas en la cabeza su representación).

Instant Cámara de Google Translate permite apuntar la cámara de nuestro móvil hacia un texto, y que éste sea traducido… ¡en la propia imagen! Todo en tiempo real.

Hablamos de una inteligencia capaz de adaptarse y aprender de los sucesos vividos. De explotar hasta la saciedad la información que toda la plataforma es capaz de amasar. Y por ende, de redefinir lo que entendemos por privacidad.

Redefiniendo la privacidad

Y era, de hecho, una de las preguntas que en su día traje a esta humilde morada: Redefiniendo la privacidad en un mundo permanentemente conectado.

La respuesta, al menos para Google, es clara: La privacidad de estos datos está asegurada puesto que únicamente son explotados por algoritmos (no hay personas detrás, ni tienen capacidad para hacerlo aunque quisieran), y se utilizan anonimizados (como perfiles) para el negocio de la compañía.

Es decir, confianza frente a funcionalidad. El saber que si queremos seguir subidos al carro tecnológico; ese mismo que ahora apunta hacia la inteligencia funcional; tendremos que aceptar que la privacidad ya no es mantener fuera del mundo digital nuestra información, sino compartirla con unas máquinas que la explotarán para ofrecernos esas funcionalidades, y para generar profiling no identificativo de puertas hacia afuera. Arriesgándonos a que el día de mañana esa información pueda ser utilizada para otros menesteres mucho menos halagüeños.

¿La alternativa? La explotación de esos datos únicamente en local, como vemos en la apuesta de Apple (TouchID) o Microsoft (Cortana). Una propuesta sin lugar a dudas mucho más sensible a la privacidad, y a la vez, muchísimo menos “inteligente”.

¿Qué hacemos?