DIY aplicado a centros de datos: Proyecto Open Compute

Lo adelantábamos ya a final de año. El Big Data, o análisis de ingentes cantidades de datos, sería una de las tendencias en auge en 2013, así como una de las 5 principales vulnerabilidades de las TIC.

opencompute

Y lo cierto es que un servidor no andaba mal encaminado. En lo poco que va de año, el Big Data ha acaparado informativos de todo el mundo con ataques a los datos albergados en las grandes compañías de tecnología, e incluso ha sido usado para gobernarnos a todos.

Unido al Big Data, está la arquitectura de servidores necesaria para cobijar tal cantidad de información, y que tiende a llamarse centro de datos.

Históricamente, los centros de datos han sido edificios con hileras e hileras de pasillos custodiados por armarios de servidores llenos de cables, en un ambiente frío para aumentar el rendimiento de los mismos. Normalmente, una compañía alquila (o compra) varios armarios de estos centros de datos a empresas que se dedican a su mantenimiento, y que a su vez pueden ser fabricantes como IBM, y que desarrollan de forma genérica este tipo de servidores.

Por otra parte, se calcula que el 1% del consumo eléctrico mundial se debe a la actividad generada por los centros de datos, un gasto energético nada desdeñable. Dicho gasto viene principalmente de la infraestructura necesaria para disipar el calor producido por los armarios, y a las bajas temperaturas necesarias para trabajar en unas condiciones óptimas. De ahí que todo este ecosistema de almacenaje y análisis de la información esté produciendo el 2% de las emisiones de dióxido de carbono globales, dos características que acaban por traducirse en miles de millones gastados por las compañías, y que sencillamente se puede mejorar.

DIY aplicado a centros de datos

La tendencia al “hágalo usted mismo” o “Do It Yourself“, normalmente unida al mundo del open source y los geeks, está entrando con fuerza en un sector tan tradicional como éste, con la entrega de requisitos y arquitectura por parte de las compañías para que los fabricantes produzcan unos servidores según las especificaciones del cliente, y no unos genéricos, destinado principalmente a reducir costes, aumentar el rendimiento (al estar pensados para el trabajo que han de desarrollar, la disipación de calor, según las condiciones del emplazamiento donde se van a colocar y minimizar el impacto ambiental.

Para ello, especificaciones aparentemente tan insulsas como eliminar el logotipo de la empresa fabricante de la rejilla de ventilación, hace que los ventiladores tengan que girar menos y por tanto gastar una media de 25 vatios menos (a esto súmale los miles de servidores que tiene la empresa, y obtienes un gasto considerable que puede ser saldado).

Las condiciones del emplazamiento están también viéndose modificadas últimamente, de grandes naves con un potente sistema de ventilación, a cuevas con su propio sistema natural, como es el caso del nuevo centro de datos que está desarrollando Facebook en Suecia, justo al límite del Círculo Polar Ártico, llamado recientemente Node Pole (juego de palabras entre North Pole y Node Pole), y que le permitiría ahorrar coste debido a las ya de por sí bajas temperaturas y el menor precio del consumo eléctrico del país (unido a que hablamos de un país con riesgo casi nulo de terremotos, a diferencia de buena parte de EEUU, con más de dos siglos de paz y una democracia estable).

Apple ha sido otra de las empresas que se ha unido a la iniciativa, en una clara estrategia por limpiar su nombre y volver a los tiempos en los que se consideraba la empresa más sensible con el impacto ambiental. Una cosa hay que aplaudirle, y es que si bien ha sido fuertemente ostigada por GreenPeace, ha sabido cumplir los requisitos en apenas tres meses, y hoy en día todos los centros de datos de la compañía funcionan únicamente con energía renovable (de hecho su mayor centro de datos, el de Carolina del Norte, produce él mismo el 60% de la energía necesaria para funcionar).

Google es otro de los gigantes que más consume (un 0,01% del gasto mundial), y precisamente uno de los que más está concienciándose con la necesidad de crear hardware a medida (más le vale si quiere ahorrar costes), apostando por las energías renovables y centros de datos optimizados a un uso específico.

Todos estos movimientos tienen un denominador común, el Open Compute Project, una iniciativa que veía la luz en 2011, y que intenta cambiar los hábitos de consumo de las compañías en tanto en cuanto los centros de datos, optando por una tendencia a la optimización, y alejándose de las generalidades.

Una nueva oportunidad de mercado

Esta situación choca frontalmente con la mente conservacionista de muchos fabricantes, que ven en peligro un mercado que históricamente ha permanecido inmutable. Un servidor ve más una oportunidad que un inconveniente, siempre y cuando estos fabricantes aprovechen la experiencia recopilada de varias décadas para saber adaptarse a las exigencias del cliente, y optar por la producción específica, liberando los procesos de diseño y conceptualización de la arquitectura del centro de datos, y centrándose en la producción bajo flexibilidad.

Otro aspecto a tener en cuenta es la virtualización de servidores, que gracias a la potencia de estos últimos, empieza a ser un modelo asequible y rentable para pequeñas y medianas empresas, y que además resulta más cómodo a la hora de optimizar.