atom c2000


Llevo, como seguramente sepa, varios meses con problemas en la fibra. Mi, hasta la semana pasada, proveedor de red (Orange) llevaba funcionando genial hasta que volví de Cuba (suspicious :)), momento en el que el router empezó a tener microcortes.

Hablé con ellos en varias ocasiones y acabaron por enviarme un técnico. Por supuesto, justo el tiempo que el pobre hombre estuvo por aquí todo fue a las mil maravillas (los cortes no son constantes en el tiempo), así que vuelta a empezar. Acordaron enviarme un router nuevo, y cual fue mi sorpresa que después de tenerlo puesto un par de días dejó de funcionar. Caput, muerto en un ciclo constante de reinicios que no llegaban a concluir.

Me enviaron otro, y este no producía cortes pero sí bajadas muy exageradas de velocidad (a veces me llegaban 50MBs, a veces menos de 1). Así que me enviaron otro de un modelo superior, con el mismo problema, cuyo ejemplo lo podemos ver en la entrevista que me hacía Héctor, administrador del canal de Youtube TicParaTodos, recientemente.

Al final decidí darlo por perdido (y me jode, porque entiendo que los chicos de Orange han intentado hacer todo lo posible por su parte) y cambiarme de compañía (llevo desde el viernes con el nuevo router, ya veremos…), pero esta historia me sirve para adelantar el tema del cual quería hablar hoy: De que el hardware es intrascendente para nuestra información hasta que deja de serlo.

Los errores en hardware se pagan caros

Pongamos dos ejemplos recientes.

El Samsung Galaxy Note 7 fue uno de los flagship del año pasado… sino fuera porque algunos de ellos explotaban (EN). Un terminal en el que Samsung volcó durante 18 meses a sus mejores ingenieros, buscando la combinación perfecta de componentes de terceros, componentes propios, diseño y usabilidad. 18 meses para crear una máquina que de seguro habrían utilizado millones de personas como dispositivo aglutinador de la información y comunicaciones, con todo lo que ello conlleva.

Sin embargo, un pequeño error de diseño hacía que en el primer set de baterías, la comprensión mecánica de la parte superior derecha de las mismas, y en el segundo set, el pinzamiento de éstas, produjera un cortocircuito que reducía drásticamente la vida del dispositivo, y por ende, la vida de la información que había en su interior.


Recalco, un problema en un componente externo (ATL para los modelos vendidos en China, Samsung SDI para el resto) que la compañía utilizaba en su modelo estrella supuso ya no solo las pérdidas multimillonarias por la vuelta del dinero a los compradores y la crisis reputacional que ha tenido que vivir la marca (hablamos de entre 3.000 y 17.000 millones de dólares), sino la pérdida absoluta de toda la información no almacenada en la nube de aquellos usuarios que hayan experimentado ese cortocircuito que acortaba drásticamente el ciclo de vida del dispositivo (que son los menos, por cierto).

Esta semana saltaba a la opinión pública la “investigación” de The Register (EN), que venía a unir dos anuncios a priori sin relación alguna:

  • En la última publicación de resultados financieros, Intel aseguraba haber tenido un problema con uno de sus productos (EN), obligándoles a destinar parte de los beneficios a su solución.
  • Justo en esa época, Cisco advertía de un problema de seguridad (EN) en varios de sus dispositivos de red con uno de sus componentes, el cual reducía el ciclo de vida de los mismos a escasos 18 meses.

Y el problema coincide curiosamente con un bug documentado en la familia de chips Intel Atom C2000 (EN), un procesador de la compañía basado en arquitectura Silvermont (x86) diseñado precisamente para un alto rendimiento con bajo consumo de batería. Es decir, dirigido a dispositivos que tienen que funcionar continuamente en un espacio reducido para sus componentes y bajo un nivel de exigencia alto. Ergo, equipos de redes y dispositivos de almacenamiento.

El problema afecta a 15 modelos de la familia C2000, presentes en productos de Cisco, pero también en numerosos fabricantes (EN) de la talla de Dell, HP, NEC, Netgear, Sypermicro, Asrock o Synology.

Y aquí viene lo gordo.

Algunos de estos fabricantes han utilizado el chip de Intel para sus dispositivos de almacenamiento. Dispositivos que no solo son vendidos al usuario final, sino que también son utilizados por redes corporativas y por servidores en la nube para almacenar información de terceros.

Es en estos momentos cuando de pronto te das cuenta del valor del hardware ya no solo como mero soporte físico de la informática, sino como limitador a la hora de estudiar el ciclo de vida de la información digital.


De pronto, todos estos dispositivos que corren un chip de la familia Intel Atom C2000 pasarán de tener una esperanza de vida de una o dos décadas a escasos 18 meses. Y algunos se cambiarán antes, conocedores del problema, pero ¿qué pasará con la información que haya almacenada en todos aquellos NAS y servidores cuyos dueños no sean conscientes del peligro que se cierne sobre sus datos?

Establecer un sistema de contingencia frente a los eventuales problemas que pueda dar el hardware es relativamente sencillo siempre y cuando aceptemos (y nos sea posible aceptar) realizar los sacrificios que demanda una arquitectura de almacenamiento híbrida (parte en local, parte en la nube).

Pero aunque existen métodos para asegurar la integridad de los datos aún cuando parte de estos dispositivos dejen de funcionar, en la práctica difícilmente podemos defendernos de un escenario en el que toda una familia de chips, presente en múltiples familias de dispositivos, tienen problemas, o de uno en el que diferentes errores de diseño en varias baterías distintas acaben por reducir drásticamente la esperanza de vida de buena parte de nuestro hardware.

Haríamos bien en considerar entonces el hardware como un riesgo local que puede volverse global, afectando al mundo digital de manera catastrófica.

Cosa que afortunadamente no suele ocurrir (los procesos de evaluación y testing están para algo), pero que ocurre. Y es entonces cuando el hardware, esa pieza intrascendente, cobra importancia.