Google #IO15, y la guerra de la contextualización que está por llegar

now on tap

El evento para desarrolladores de Google (que a cada paso se vuelve más para el consumidor y menos para profesionales) duraba este año dos días (por cierto, curioso que la tendencia sea a concentrarlo todo en dos días y no en tres, como históricamente), y tocaba sentarse y reposar todas las nuevas.

A diferencia de los grandes medios, que siguen enfocados en llegar antes cueste lo que cueste, como a un servidor el posicionamiento ni le va ni le viene, me permito escribir de ello pasado el fin de semana, después de haber mascado el #IO15 con tranquilidad, y sin las prisas de tener que hablar de ello y escupir básicamente lo mismo que todos los que lo hemos visto (EN) hemos escuchado.

Se echó de menos a los de siempre (no entiendo por qué no salieron al escenario), en un evento que parecía más enfocado a dejar claro que Google apuesta por la diversidad de sexo entre sus filas (aunque las estadísticas no mientan (EN)) que otra cosa.

Así, me quedo con sentimientos encontrados, al darme cuenta de que aunque el evento en sí no ha sido nada del otro mundo, si arañamos un poco la corteza encontramos grandes joyas.

Y todas, casualmente, tienen que ver con la contextualización. ¿Por qué será? :P.

Interacción gestual más humana

Es la pelea que llevo años defendiendo: Las interfaces informáticas no son naturales. Son un apaño que hemos creado para solucionar la problemática de conversar con una máquina.

Incluso a nivel de diseño, hemos visto cómo el panorama se ha ido sofisticando para hacerse más intuitivo, no con la propia forma, sino con la propia interacción, emulando efectos físicos (barridos, superposición de capas, resistencias, botes,…) que fueran capaces de por sí de darnos la información que buscamos. De hacernos creer que el mundo digital está expuesto a las mismas leyes que el físico.

Y aún así, no deja de ser un recurso artificial.

El futuro de la interacción hombre-máquina se va a tener que hacer mediante una interacción que resulte natural, que no precise de un aprendizaje previo, y que además haga a la tecnología un ente invisible.

No se cumple todo, y sin duda estará encasillado a entornos (por ahora) muy limitados, pero el llamado Project Soli que los laboratorios de Google ATAP presentaban estos días, se le acerca.

Tampoco es que sean los primeros, y es que casualmente esta semana HP sacaba al mercado un producto (EN) con una idea parecida (aunque con distinta ejecución), pero el hecho de que un simple chip del tamaño de una uña sea capaz de comprender movimientos sutiles de la mano y pasarlos a pulsos magnéticos, apunta a que sin duda esta tecnología será infinitamente más barata que la de HP.

Ver en Youtube (EN).

Todavía suena lejos de ser la solución definitiva. Muy encasillada y hasta algo innatural el hecho de tener que estar a escasos centímetros del chisme para que lo reconozca, pero quizás una unión de algo parecido a esto (y menos limitado) con la voz arroje un futuro prometedor.

Por lo menos, más prometedor que lo que hace unos años parecía que iba a ser.

Contextualización al poder

Porque si de algo se ha hablado en este Google IO, ha sido de contextualización. Tanto Doze como Google on Tap apuntan a un entorno en el que las soluciones se adaptan a las necesidades, no al contrario.

Para quien no lo sepa, Doze es el nombre que le han puesto a la gestión “inteligente” de la batería en Android M. Básicamente es un sistema que aprenderá de nuestro uso para meter al dispositivo en una suerte de Deep Sleep cuando la máquina “predice” que no vamos a interaccionar con ella, ahorrando bastante batería en el proceso.

¿Que por qué no hace esto cada vez que bloqueamos el terminal? Porque como pasa con las bombillas de bajo consumo, despertar de un Deep Sleep es más costoso que hacerlo de un Light Sleep, y por tanto, solo sale rentable cuando se va a pasar bastante tiempo entre interacción e interacción.

Así, algo tan crítico como la batería se autoregula no según un patrón establecido, sino según el patrón de hábitos de consumo del usuario. Según la contextualidad del entorno que le rodea.

Google on Tap no es más que la segunda iteración de Google Now, que ahora además de estar presente en las búsquedas y algunas aplicaciones nativas del sistema (Contactos, GMail, Fotos), será capaz de adaptar la pregunta al contexto en el que se le hace.

Que si un usuario está escuchando una canción de Ramoncín (Dios no lo quiera) y le pregunta a Google Now sobre “chorizos”, la contextualización de Google on Tap debería servirle a Google para entender que quizás la pregunta tiene que ver con la corrupción de la SGAE, y no con este querido y afamado producto culinario.

Bromas aparte, en el evento ponían el ejemplo de un usuario que recibía una invitación para ir al cine, y al dejar pulsado el botón central (la forma de llamar a Google Now), éste le mostraba varias tarjetas con los cines más cercanos y la síntesis de la película.

De nuevo, nada que otros asistentes virtuales no tengan ya (Cortana, por ejemplo) pero con el potencial que tiene una herramienta como esta en manos de Google. Porque Google en sin duda el que mejor está preparado para ofrecer contextualidad a día de hoy.

Ver en Youtube (EN)

Y así llego a lo verdaderamente interesante.

¿Cómo va a romper Google la hegemonía de los jardines vallados?

Es la duda que me queda después de haber visto hacia donde se dirige la empresa del buscador. En el caso de Android (que es quizás donde más mano puede meter hoy en día), entiendo que Google Play Services pueden servir como Caballo de Troya para monitorizar la información de servicios y aplicaciones externas (con idea, por ejemplo, de mostrar esas tarjetitas contextuales a lo que X aplicación esté mostrando).

Entiendo por tanto que para una aplicación “pequeña” o solitaria, las ventajas de ceder ante un gigante como Google pueden ser interesantes (al fin y al cabo, es la puerta de acceso a la información de la mayoría de la sociedad).

¿Pero qué hay de WhatsApp / Facebook / Instagram / Messenger? ¿Qué hay de Microsoft Office / Skype / Outlook? ¿Qué hay de Twitter / Vine / Periscope? ¿Qué hay de Amazon?

A lo que voy es que esa contextualidad que tan bien nos va a venir a todos (si dejamos de lado el discurso de la privacidad, claro está) entra en guerra con los intereses de la competencia.

¿Por qué yo, Facebook, voy a dejar que Google on Tap meta una capa extra en Instagram o en mi red social? ¿Por qué yo, Twitter, estaría interesado en que mi competencia tenga acceso a la información de mis clientes?

Peor aún ¿Dejara Facebook que Google monetice los datos de sus clientes en WhatsApp? ¿Se podrá permitir el indexado de esa información sin el tráfico de datos esperable por el buscador?

Y suponiendo que todas las respuestas sean, como cabría esperar, negativas, me pregunto qué valor tendrá una contextualidad que no entra dentro de la mayoría de servicios que más usamos a diario, sino que está encasillada en servicios propios del ecosistema de Google y en servicios minoritarios.

Es curioso, pero esos jardines vallados que tan alegremente han levantado todas estas compañías, ahora van a jugar en su contra. Y también a su favor. Y también en contra y a favor del usuario.

¡Qué difícil es esto de la tecnología!

Edit unas horas más tarde: En el siguiente artículo hablaremos de Google Fotos, y con este acabaremos con el análisis del IO de este año.