Interesante la prueba de concepto de Mieszko Lib, un estudiante de doctorado que junto a un equipo de investigadores, publicaban recientemente (EN) los datos referentes a un procesador de 110 núcleos.
Y me ha llamado la atención no solo por el titulo, sino porque si te paras a leer las prestaciones y características técnicas, la tecnología necesaria está hoy en día al alcance de la industria, y propone un futuro distópico y cercano de procesamiento que pocos podrían prever.
Typically a lot of data migration takes place between cores and cache, and the 110-core chip has replaced the cache with a shared memory pool, which reduces the data transfer channels. The chip is also able to predict data movement trends, which reduces the number of cycles required to transfer and process data.
The benefits of power-efficient data transfers could apply to mobile devices and databases.
Que en el idioma de Cervantes quiere decir algo así como que en el Execution Migraine Machine, el nombre de esta nueva arquitectura, se prescinde de la memoria caché (sí, olvidaros de datos en caché, ya no es necesario), y en su defecto tendremos una memoria de uso compartido, por lo que a priori se reduce enormemente la transmisión de datos en canales, lo que a la larga reduce el número de ciclos necesarios, y permite predecir las necesidades de movimiento de datos (entiendo para usar x número de núcleos, que no penséis que estamos usando 110 núcleos a la vez).
Ahora viene lo bueno:
The researchers have seen up to 14 times the reduction in on-chip traffic, which significantly reduces power dissipation.
Con esta arquitectura, se reduce hasta 14 veces (palabras de Mieszko, cogerlas con pinzas) el flujo de datos en el interior del chip, lo que aseguran daría un 25% de autonomía extra (y un menor disipado por calor).
El chip usa transistores de 45 nanómetros, y si miramos al mercado real, los “nuevos” procesadores Haswell de Intell (ES) usan una tecnología de 22 nanómetros, lo que me lleva a pensar que todo lo visto anteriormente se puede optimizar aún bastante.
Dando por hecho que 110 núcleos funcionando asíncronamente tienen capacidad suficiente para trabajar volúmenes de datos semejantes a los de Big Data, si se llegan a materializar (y en verdad resultan tan provechosos como nos cuentan), vaticinan un futuro de la electrónica de consumo realmente impresionante, y una dramática reducción de los titánicos centros de datos de las grandes compañías tecnológicas, con el ahorro en energía e infraestructura incluido.
¿Bajada de precios en virtualización a la vuelta de la esquina? Esperemos que así sea.