Históricamente la innovación en materia de miniaturización de componentes electrónicos ha seguido un modelo de pares que Intel acabó por denominar ciclo «Tick-Tock» (ES). Primero se llegaba al hito de reducir unos nanómetros los elementos de los microprocesadores (lo que requiere volver a reformular toda la maquinaria de producción para adaptarse a este nuevo paradigma), y eso daba a la industria un margen temporal y tecnológico para sacar dos familias de procesadores distintas, con las que recuperaban el ROI y, como cabría esperar, obtenían beneficios para seguir iterando.
La sexta generación de procesadores ya está en el mercado, y para la próxima tocaba realizar el Tick a los 10nm bajo el nombre de Cannonlake. ¿Cuál es el problema? Que la siguiente familia no será Cannonlake, sino Kaby Lake, esperada para finales de 2016, y lo más curioso de todo, también de 14nm. Y el siguiente Tick no ocurrirá tampoco después de un Tock (cambio de arquitectura), sino nuevamente de dos: Cannonlake, en el 2017, Icelake, en el 2018 y Tigerlake, en el 2019, para quizás bajar entonces ya a los 5nm.
A esto, hay que unirle otro cambio que hemos experimentado recientemente, y que parece será la tónica de aquí en adelante.
Los Broadwell (los del 2015, para que nos entendamos) apostaron (no por placer, todo hay que decirlo) por romper con la eterna guerra del sector por seguir cumpliendo la Ley de Moore (ES), formulada en el 65 por el cofundador de la compañía, que viene a decir que cada año se duplica el número de transistores, y que se ha ido parcheando desde entonces (en el 75 pasó a ser cada 2 años, y en el 2007 Moore aseguró que dejaría de cumplirse en 10 o 15 años).
Y lo hicieron de una manera brillante: Forzando a la industria a entender que los microchips son de facto uno de los elementos más interesantes a la hora de ofrecer versatilidad y seguridad en capas inferiores. De dotar a la pieza de hardware que opera al nivel más bajo (sin procesador no hay procesamiento, ergo no hay nada) de inteligencia, siendo capaces de gestionar la identidad y comunicación del dispositivo (un guió al M2M), con todo lo que esto entraña, como veíamos hace un par de días.
De ofrecer no el salto de potencia esperable en un cambio de ciclo, sino de ser más eficientes (ofreciendo más características).
Por detrás, un movimiento de toda la cadena por encontrar mayor eficiencia en un entorno que hasta ahora era de puro derroche (sistemas operativos, programas y procesos cada vez más pesados, habida cuenta de que el hardware cada dos años doblaba su capacidad), que nos lleva a la situación actual.
De fuerza bruta a eficiencia
El cambio entraña una paradoja verdaderamente interesante.
Hablamos de seguir ofreciendo más al ritmo acelerado actual con una base (hardware) que avanza cada vez a menos velocidad.
Este hecho tiene implicaciones que afectan, y de qué manera, a la estrategia de todos los miembros de la cadena. Desde compañías tecnológicas (adaptarse a unos «cables» cada vez más limitados), pasando por operadoras (desechar el cable y apostar por el satélite, que ya de por sí me daría para otro artículo) y tecnologías.
Y uno de las que más adolecerán el cambio es sin duda el sector de la inteligencia artificial, que ha experimentado un gran empuje estos últimos años gracias, precisamente, a la más pura fuerza bruta:
¿Qué necesitamos que una máquina sea capaz de aprender? Pues métele procesadores a «cascoporro», prepara tu propia arquitectura enfocada específicamente en las necesidades de hardware de una red neuronal, y aliméntala con millones de datos, que acabará aprendiendo.
Todo muy bonito hasta que te das cuenta de que los smartphones (o lo que sea que usemos) de dentro de cuatro años no van a ser tropecientas veces más potentes. Que los ordenadores que tienen que tirar de esa inteligencia tampoco van a evolucionar a ese mismo ritmo. Y mucho menos lo harán aquellos dispositivos de IoT que demanda la sociedad (y las agencias de inteligencia, jeje), vez más diminutos.
Sin olvidarnos que ahora quizás Facebook tenga los datos de mil quinientas millones de interacciones, pero dentro de 4 no va a ver cuadruplicado su tamaño. Y lo mismo pasa con Google, con Apple, con Tesla, con Amazon,…
¿A dónde quiero ir?
Que tarde o temprano habrá que pararse y empezar una carrera no enfocada a ver quién la tiene más grande, sino en ver quién es capaz de conseguir más con menos.
El reto de conseguir más con menos
Quien sea capaz de pulir los algoritmos de tal manera que aún no teniendo ingentes volúmenes de información, ofrezca mejor inteligencia que uno de estos gigantes.
O si me apura, ver quién es capaz de aún teniendo esas burradas de bases de datos, ayudar a la máquina con metodologías más eficientes para que el aprendizaje sea mayor en menor tiempo.
Que la maquinaria sea inteligente, vamos, y no simplemente musculosa. Porque como vimos, el músculo no va a crecer al ritmo necesario que demanda la actual industria. Ni tan siquiera la carne de cañón (los usuarios, ya sabe) lo hará en la misma cuantía, por muchos ojitos que les pongamos a los chinos y a los indios.
[Tweet «.@PYDotCom: ‘Lo que tenemos hoy en día no es una tecnología inteligente, sino hiper-musculada'»]
Lo cual dibuja una panorámica mucho más interesante, en la que el pez pequeño puede llegar a comerse al grande.
La escalabilidad acaba llegando si la base es buena, y harían bien todos aquellos interesados en plantarle cara a los gigantes si se centrasen en mejorar la base de sus sistemas, haciéndolos profundamente más eficientes.
En gasto energético, en calidad, en ética a la hora de recopilar información, en aprovechamiento de los recursos informáticos, en apuesta por la materia gris.
Si con una migaja podemos hacer mucho, imagínese lo que se conseguirá cuando unos cuantos «lo que sea» hagan engordar la maquinaria.
Mejores algoritmos corriendo por hardware más limitado, analizando bases de datos menos masivas pero mucho más optimizadas.
En la optimización está la clave, amigo. Menos datos más heterogéneos, pasando filtros de optimización que nos permitan obtener más en menos tiempo, con menos recursos.
Dije en su día que por ahí estaba el petróleo del siglo XXI. Y mire si no hay camino aún por recorrer…
Buen articulo!!
Muchas gracias Walter!
Futuro….
Buenos dias señores, en este tour sobre como la tecnologia a avanzado podremos visualizar el esfuerzo de años de trabajo para obtener tal proposito, gracias a toda la cantidad de metadatos que se estuvieron obteniendo entre el 2000 al 2020 hemos podimos crear grandes algoritmos que se procesen a si mismos, sofisticada tecnologia que con el paso de los años se ha ido moldeando a si misma, tanto en el hardware como el software, la mano del hombre ya no ha tenido nada que ver desde ese momento, estamos ante la mayor IA de la historia….
Señor pero podiamos ver la maquina que procesa todo eso que nos esta haciendo ilusiones magicas misticas y todo eso… hemos recorrido pasillos sin puertas ni ventanas.
Estamos dentro de ella.
Quería preparar para esta semana un artículo sobre los riesgos de una IA trascendente. Un repaso un poco más profundo de aquellos dos artículos que publicábamos no hace mucho: «La problemática de la interrupción forzada de una IA “trascendente”» y «El riesgo de que una IA “trascendente” sea nuestra competencia«.
Dame tiempo, que ya sabes que las cosas en palacio…
La ley de moore siempre me ha parecido algo como los objetivos de una empresa, pero más como curiosidad que como objetivo real. Parece que los fabricantes de chips se han estado empeñando en cumplirla, e incluso a veces parece que maquillan los datos para que se cumpla…
Conforme avanzamos en el tiempo las cosas son menos eficientes, y que la potencia computacional sea mayor ayuda o no tener que mejorarlo, así de simple.
En mi primer año de universidad recuerdo a un compañero que abogaba por no optimizar nada, siempre diciendo «Los recursos son baratos, optimizar es una pérdida de tiempo» Después hemos visto que, a cuanto más alto nivel se programa, menor control se tiene sobre la optimización. Recuerdo haber empezado a diseñar páginas web con dreamweaver, en sus primeras versiones, te ibas al código y aparecía lo que tu le ponías, unas cuantas versiones después, hacer lo mismo añadía muchísimas más información.
Recuerdo ver los primeros juegos en flash, todo un prodigio de la ineficiencia, se portaba un juego que originalmente ocupaba unos ks, pasando a ocupar unas megas y requerir una máquina mucho más potente.
hora podemos ver la enorme cantidad de recursos que utilizan los juegos de cualquier plataforma móvil, que requiere muchísimos recursos pesimamente optimizados que requieren más y más gigas, más y más cores, más y más ancho de banda (algunos a saber para que)
Siempre ha habido una escusa, se programa a mayor nivel, los gráficos requieren mucha potencia, hay que reproducir a mayor resolución, debe funcionar sobre una plataforma web… pero lo cierto es que el principal principio que rije es el de que los recursos son baratos y que no se considera la convivencia con otros procesos.
En el caso de empresas como google o facebook, que están recabando continuamente información, es probable que en 10 años, la información que recaben sean 10 veces mayor, puesto que se darán cuenta que hay cosas que no recaban. Estas empresas, en las que tienen todos los procesos muy estructurados. Es una opinión muy personal, pero es posible que muchos datos que recaban no saben muy bien que hacer con ellos hoy en día, quien sabe mañana… Pero los estructuran de manera que cuando le encuentren utilidad la puedan usar. También puede que no sean capaces de procesarlo… hoy en día… En cualquier caso siempre buscan esa eficiencia de la que hablas, pero más para el trato de esos datos que a todo lo que hacen, y por necesidad, no por otra cosa.
El concepto de inteligente es algo bastante difuso en la actualidad, se aplica a todo y al final nunca queda claro cual es su significado real solo con el contexto. A una máquina no la puedes llevar a clase para que aprenda, tampoco le podemos dar un libro y que se lo lea, por que lo leerá más eficientemente que un humano, pero no aprenderá nada. Computacionalmente hablando, eso que llamamos inteligencia, hay que programarlo, hay que buscar de que manera se modeliza, estructura, programa y procesa. Igual que un procedimiento que ha diseñado el responsable del departamento para que lo siga el último mono que entra en la empresa… Y al procedimeinto es a lo que llamamos inteligente..
Lo que tenemos, a mi forma de ver, es un tio supereficiente siguiendo procedimiento hechos por poco menos que monos, que hacen parecer que el tio es un inutil. En muchas empresas este empleado será despedido y sustituido, o se contratará personal adicional, que es algo de lo que ocurre