El reto que supone enfrentarse a un entorno tecnológico eficiente

Intel tick tock diagram

Históricamente la innovación en materia de miniaturización de componentes electrónicos ha seguido un modelo de pares que Intel acabó por denominar ciclo “Tick-Tock” (ES). Primero se llegaba al hito de reducir unos nanómetros los elementos de los microprocesadores (lo que requiere volver a reformular toda la maquinaria de producción para adaptarse a este nuevo paradigma), y eso daba a la industria un margen temporal y tecnológico para sacar dos familias de procesadores distintas, con las que recuperaban el ROI y, como cabría esperar, obtenían beneficios para seguir iterando.

La sexta generación de procesadores ya está en el mercado, y para la próxima tocaba realizar el Tick a los 10nm bajo el nombre de Cannonlake. ¿Cuál es el problema? Que la siguiente familia no será Cannonlake, sino Kaby Lake, esperada para finales de 2016, y lo más curioso de todo, también de 14nm. Y el siguiente Tick no ocurrirá tampoco después de un Tock (cambio de arquitectura), sino nuevamente de dos: Cannonlake, en el 2017, Icelake, en el 2018 y Tigerlake, en el 2019, para quizás bajar entonces ya a los 5nm.

A esto, hay que unirle otro cambio que hemos experimentado recientemente, y que parece será la tónica de aquí en adelante.

Los Broadwell (los del 2015, para que nos entendamos) apostaron (no por placer, todo hay que decirlo) por romper con la eterna guerra del sector por seguir cumpliendo la Ley de Moore (ES), formulada en el 65 por el cofundador de la compañía, que viene a decir que cada año se duplica el número de transistores, y que se ha ido parcheando desde entonces (en el 75 pasó a ser cada 2 años, y en el 2007 Moore aseguró que dejaría de cumplirse en 10 o 15 años).

Y lo hicieron de una manera brillante: Forzando a la industria a entender que los microchips son de facto uno de los elementos más interesantes a la hora de ofrecer versatilidad y seguridad en capas inferiores. De dotar a la pieza de hardware que opera al nivel más bajo (sin procesador no hay procesamiento, ergo no hay nada) de inteligencia, siendo capaces de gestionar la identidad y comunicación del dispositivo (un guió al M2M), con todo lo que esto entraña, como veíamos hace un par de días.

De ofrecer no el salto de potencia esperable en un cambio de ciclo, sino de ser más eficientes (ofreciendo más características).

Por detrás, un movimiento de toda la cadena por encontrar mayor eficiencia en un entorno que hasta ahora era de puro derroche (sistemas operativos, programas y procesos cada vez más pesados, habida cuenta de que el hardware cada dos años doblaba su capacidad), que nos lleva a la situación actual.

De fuerza bruta a eficiencia

El cambio entraña una paradoja verdaderamente interesante.

Hablamos de seguir ofreciendo más al ritmo acelerado actual con una base (hardware) que avanza cada vez a menos velocidad.

Este hecho tiene implicaciones que afectan, y de qué manera, a la estrategia de todos los miembros de la cadena. Desde compañías tecnológicas (adaptarse a unos “cables” cada vez más limitados), pasando por operadoras (desechar el cable y apostar por el satélite, que ya de por sí me daría para otro artículo) y tecnologías.

Y uno de las que más adolecerán el cambio es sin duda el sector de la inteligencia artificial, que ha experimentado un gran empuje estos últimos años gracias, precisamente, a la más pura fuerza bruta:

¿Qué necesitamos que una máquina sea capaz de aprender? Pues métele procesadores a “cascoporro”, prepara tu propia arquitectura enfocada específicamente en las necesidades de hardware de una red neuronal, y aliméntala con millones de datos, que acabará aprendiendo.

Todo muy bonito hasta que te das cuenta de que los smartphones (o lo que sea que usemos) de dentro de cuatro años no van a ser tropecientas veces más potentes. Que los ordenadores que tienen que tirar de esa inteligencia tampoco van a evolucionar a ese mismo ritmo. Y mucho menos lo harán aquellos dispositivos de IoT que demanda la sociedad (y las agencias de inteligencia, jeje), vez más diminutos.

Sin olvidarnos que ahora quizás Facebook tenga los datos de mil quinientas millones de interacciones, pero dentro de 4 no va a ver cuadruplicado su tamaño. Y lo mismo pasa con Google, con Apple, con Tesla, con Amazon,…

¿A dónde quiero ir?

Que tarde o temprano habrá que pararse y empezar una carrera no enfocada a ver quién la tiene más grande, sino en ver quién es capaz de conseguir más con menos.

El reto de conseguir más con menos

Quien sea capaz de pulir los algoritmos de tal manera que aún no teniendo ingentes volúmenes de información, ofrezca mejor inteligencia que uno de estos gigantes.

O si me apura, ver quién es capaz de aún teniendo esas burradas de bases de datos, ayudar a la máquina con metodologías más eficientes para que el aprendizaje sea mayor en menor tiempo.

Que la maquinaria sea inteligente, vamos, y no simplemente musculosa. Porque como vimos, el músculo no va a crecer al ritmo necesario que demanda la actual industria. Ni tan siquiera la carne de cañón (los usuarios, ya sabe) lo hará en la misma cuantía, por muchos ojitos que les pongamos a los chinos y a los indios.

Lo cual dibuja una panorámica mucho más interesante, en la que el pez pequeño puede llegar a comerse al grande.

La escalabilidad acaba llegando si la base es buena, y harían bien todos aquellos interesados en plantarle cara a los gigantes si se centrasen en mejorar la base de sus sistemas, haciéndolos profundamente más eficientes.

En gasto energético, en calidad, en ética a la hora de recopilar información, en aprovechamiento de los recursos informáticos, en apuesta por la materia gris.

Si con una migaja podemos hacer mucho, imagínese lo que se conseguirá cuando unos cuantos “lo que sea” hagan engordar la maquinaria.

Mejores algoritmos corriendo por hardware más limitado, analizando bases de datos menos masivas pero mucho más optimizadas.

En la optimización está la clave, amigo. Menos datos más heterogéneos, pasando filtros de optimización que nos permitan obtener más en menos tiempo, con menos recursos.

Dije en su día que por ahí estaba el petróleo del siglo XXI. Y mire si no hay camino aún por recorrer…