google home picture


Google se creó ya hace algo más de una década con la misión de “Hacer que la información sea universalmente accesible y útil”. Una misión que los ha llevado de crear una herramienta de indexación web basada en un sistema de indexación de documentos que ya estaba siendo aplicado en el entorno universitario, a generar un ecosistema digital de productos que les permitiera obtener la información suficiente del usuario como para comprender sus necesidades, a dominar el entorno móvil, y recientemente, a adentrarse en el de la asistencia virtual.

Por encima de todo ello, un modelo de negocio que no se diferencia mucho del que han tenido históricamente la mayoría de medios de comunicación: la publicidad. Con diferentes formatos, de diferentes maneras, Google lleva literalmente años buscando la manera de equilibrar en sus servicios la información (lo que el usuario busca) y la publicidad (lo que mantiene el chiringuito funcionando).

Y para ello no han tenido problema en irrumpir en cuantos escenarios fuera necesario, tecnología en mano.

En estos días estamos viviendo otro nuevo cambio de era.

Del “mobile-first” al “AI-first”

Lo definía muy bien el bueno de Sundar Pichai en la presentación de ayer en el Google IO, que algunos vivimos con palomitas en mano desde el Campus de Google, y lo leía esta noche traducido en el blog de la compañía (ES):

Hoy estamos siendo testigos de un nuevo cambio de paradigma: la transición de un mundo ‘mobile-first’ hacia uno ‘AI-first’. Y como en el pasado, está forzándonos a reimaginar nuestros productos para un mundo que permita interacciones más naturales con la tecnología.

No es nada nuevo. De hecho, hace un par de años ya adelantaba por este mismo espacio que el futuro de Google pasaba, precisamente, por la contextualidad. Por humanizar la interacción con la máquina, por buscar esa ansiada tecnología invisible, innata al ser humano, y no justo al contrario.


Desde entonces, lo que antes fuera una “compañía de software”, se ha ido transformando en una compañía de análisis de información.

Lo avisaba en junio del 2015, cuando presentaron uno de esos productos adelantados a nuestro tiempo: Google Photos. Mientras la mayoría de los medios se dedicaban a señalar el golpe en la mesa que había hecho Google al ofrecer almacenamiento ilimitado, un servidor se preguntaba si de verdad lo más importante debía ser eso, o el hecho de que Google Photos erradicaba la necesidad por parte del usuario de preocuparse por la administración, gestión y búsqueda de sus recuerdos gráficos.

El magnífico trabajo que han realizado para que sea la máquina la que deba hacer el trabajo, y no el usuario, así como los retos (y riesgos) de que algo así esté en manos de una compañía cuyo negocio, recalco, sigue siendo el publicitario.

El Google IO del año pasado, que viví también desde el Campus de Google, era un cántico a esta transformación digital. Nada de “nuevos productos super-chulos”, y mucho de cómo una empresa de software había decidido madurar hacia derroteros de machine-learning, asistencia y realidad aumentada.

Olvidarse de la tecnología per sé, decostruyendo el servicio, y aplicando esfuerzos y recursos en transformarlo en algo que vaya más allá de una simple herramienta… entre bastidores. Para un ojo no entrenado el producto seguiría siendo el mismo. La magia ocurría a expensas del conocimiento del usuario.

Por aquel entonces conocimos los que serían los primeros modelos de TPU creados por la compañía, y que hoy en día ya van por la siguiente generación (EN). Tensor Processing Unit pasaría entonces a ser el cerebro de una Google cada vez más alejada del desarrollo de productos al uso, centrados en la manera de “hacer que la información sea universalmente accesible y útil” bajo el amparo de la inteligencia artificial.

Se presentó entonces el Google Home, un ChromeCast vitaminado que ya apuntaba hacia el nuevo campo de batalla: el de la asistencia. Haciendo hincapié en la necesidad de mejorar la última frontera de interacción humano-máquina (la voz), y siguiendo los pasos de otro gigante que curiosamente, y contra todo pronóstico (una tienda de libros venida a más), ha conseguido posicionarse como referente del sector (Amazon con su Echo).


Un escenario en el que sinceramente aún no me encuentro del todo cómodo, que requiere dilapidar cuestiones éticas que a priori se me antojan inamovibles, pero que entiendo es un paso necesario si queremos que la tecnología deje de ser algo trascendente para volverse algo tangencial y útil para nuestra civilización.

(Vídeo eliminado de Youtube)

De cuando lo verdaderamente interesante ocurre entre bambalinas

La presentación de ayer (EN) por parte de Google seguramente no haya sido interesante para la mayoría de “analistas tecnológicos”, por todos aquellos medios de comunicación que esperaban mostrar este nuevo “device” o esta nueva versión de Android enfocada a países en vías de desarrollo.

No debería serlo. A fin de cuentas, no hay que olvidar que es un evento dirigido a desarrolladores.

Simplemente porque Google ya no es una empresa de software, sino de servicios en su más pura y básica de las definiciones. Una empresa en la que el producto final no es más que una pequeña pieza de todo el sistema de engranajes que hay por detrás, y que para colmo es y debe seguir siendo absolutamente ajeno al usuario.

Los esfuerzos de Google por democratizar el uso de redes neuronales (EN) para que el día de mañana un desarrollador cualquiera tenga en su mano la capacidad de incluir IA en cualquier producto, la apertura de Tensor Flow (EN), la herramienta en la nube que un investigador querría para llevar a cabo estudios de machine learning, o la compleja red de causa/efecto que han conseguido desarrollar para comprender el uso arbitrario y subjetivo que hacemos cada uno de nosotros con el lenguaje a la hora de responder un email (EN), simplemente para que GMail e Inbox nos sugiera un par de respuestas rápidas creadas ex-profeso para nosotros, entiendo que no sean anuncios con los que un periodista se sienta cómodo, o que un medio de comunicación quisiera cubrir de un evento como el Google IO.

No son algo tangible para el grueso de la sociedad, pese a que presumiblemente estemos ante una de las empresas más disruptoras del momento.


Google Lens Restaurants

Entiendo que resulte más “monetizable” hablar de cómo a partir de ahora la cámara de Android tendrá una capa de interactividad, pero quizás lo que a un servidor más le interesa es entender que Google Lens es la culminación, aún en pañales, de esa misión de la compañía. El que estén ofreciendo a la máquina unos ojos para indexar ya no solo información digital, sino física, con la esperanza de, como en su día se hizo mediante apaños con Maps, crear un ecosistema de información que ahora sí ya no distinga entre el entorno digital y el real.

Sencilla y llanamente increíble.