Llevo, como seguramente sepa, varios meses con problemas en la fibra. Mi, hasta la semana pasada, proveedor de red (Orange) llevaba funcionando genial hasta que volví de Cuba (suspicious :)), momento en el que el router empezó a tener microcortes.
Hablé con ellos en varias ocasiones y acabaron por enviarme un técnico. Por supuesto, justo el tiempo que el pobre hombre estuvo por aquí todo fue a las mil maravillas (los cortes no son constantes en el tiempo), así que vuelta a empezar. Acordaron enviarme un router nuevo, y cual fue mi sorpresa que después de tenerlo puesto un par de días dejó de funcionar. Caput, muerto en un ciclo constante de reinicios que no llegaban a concluir.
Me enviaron otro, y este no producía cortes pero sí bajadas muy exageradas de velocidad (a veces me llegaban 50MBs, a veces menos de 1). Así que me enviaron otro de un modelo superior, con el mismo problema, cuyo ejemplo lo podemos ver en la entrevista que me hacía Héctor, administrador del canal de Youtube TicParaTodos, recientemente.
Al final decidí darlo por perdido (y me jode, porque entiendo que los chicos de Orange han intentado hacer todo lo posible por su parte) y cambiarme de compañía (llevo desde el viernes con el nuevo router, ya veremos…), pero esta historia me sirve para adelantar el tema del cual quería hablar hoy: De que el hardware es intrascendente para nuestra información hasta que deja de serlo.
Los errores en hardware se pagan caros
Pongamos dos ejemplos recientes.
El Samsung Galaxy Note 7 fue uno de los flagship del año pasado… sino fuera porque algunos de ellos explotaban (EN). Un terminal en el que Samsung volcó durante 18 meses a sus mejores ingenieros, buscando la combinación perfecta de componentes de terceros, componentes propios, diseño y usabilidad. 18 meses para crear una máquina que de seguro habrían utilizado millones de personas como dispositivo aglutinador de la información y comunicaciones, con todo lo que ello conlleva.
Sin embargo, un pequeño error de diseño hacía que en el primer set de baterías, la comprensión mecánica de la parte superior derecha de las mismas, y en el segundo set, el pinzamiento de éstas, produjera un cortocircuito que reducía drásticamente la vida del dispositivo, y por ende, la vida de la información que había en su interior.
Recalco, un problema en un componente externo (ATL para los modelos vendidos en China, Samsung SDI para el resto) que la compañía utilizaba en su modelo estrella supuso ya no solo las pérdidas multimillonarias por la vuelta del dinero a los compradores y la crisis reputacional que ha tenido que vivir la marca (hablamos de entre 3.000 y 17.000 millones de dólares), sino la pérdida absoluta de toda la información no almacenada en la nube de aquellos usuarios que hayan experimentado ese cortocircuito que acortaba drásticamente el ciclo de vida del dispositivo (que son los menos, por cierto).
Esta semana saltaba a la opinión pública la “investigación” de The Register (EN), que venía a unir dos anuncios a priori sin relación alguna:
- En la última publicación de resultados financieros, Intel aseguraba haber tenido un problema con uno de sus productos (EN), obligándoles a destinar parte de los beneficios a su solución.
- Justo en esa época, Cisco advertía de un problema de seguridad (EN) en varios de sus dispositivos de red con uno de sus componentes, el cual reducía el ciclo de vida de los mismos a escasos 18 meses.
Y el problema coincide curiosamente con un bug documentado en la familia de chips Intel Atom C2000 (EN), un procesador de la compañía basado en arquitectura Silvermont (x86) diseñado precisamente para un alto rendimiento con bajo consumo de batería. Es decir, dirigido a dispositivos que tienen que funcionar continuamente en un espacio reducido para sus componentes y bajo un nivel de exigencia alto. Ergo, equipos de redes y dispositivos de almacenamiento.
El problema afecta a 15 modelos de la familia C2000, presentes en productos de Cisco, pero también en numerosos fabricantes (EN) de la talla de Dell, HP, NEC, Netgear, Sypermicro, Asrock o Synology.
Y aquí viene lo gordo.
Algunos de estos fabricantes han utilizado el chip de Intel para sus dispositivos de almacenamiento. Dispositivos que no solo son vendidos al usuario final, sino que también son utilizados por redes corporativas y por servidores en la nube para almacenar información de terceros.
Es en estos momentos cuando de pronto te das cuenta del valor del hardware ya no solo como mero soporte físico de la informática, sino como limitador a la hora de estudiar el ciclo de vida de la información digital.
De pronto, todos estos dispositivos que corren un chip de la familia Intel Atom C2000 pasarán de tener una esperanza de vida de una o dos décadas a escasos 18 meses. Y algunos se cambiarán antes, conocedores del problema, pero ¿qué pasará con la información que haya almacenada en todos aquellos NAS y servidores cuyos dueños no sean conscientes del peligro que se cierne sobre sus datos?
Establecer un sistema de contingencia frente a los eventuales problemas que pueda dar el hardware es relativamente sencillo siempre y cuando aceptemos (y nos sea posible aceptar) realizar los sacrificios que demanda una arquitectura de almacenamiento híbrida (parte en local, parte en la nube).
Pero aunque existen métodos para asegurar la integridad de los datos aún cuando parte de estos dispositivos dejen de funcionar, en la práctica difícilmente podemos defendernos de un escenario en el que toda una familia de chips, presente en múltiples familias de dispositivos, tienen problemas, o de uno en el que diferentes errores de diseño en varias baterías distintas acaben por reducir drásticamente la esperanza de vida de buena parte de nuestro hardware.
Haríamos bien en considerar entonces el hardware como un riesgo local que puede volverse global, afectando al mundo digital de manera catastrófica.
Cosa que afortunadamente no suele ocurrir (los procesos de evaluación y testing están para algo), pero que ocurre. Y es entonces cuando el hardware, esa pieza intrascendente, cobra importancia.
El problema del los microcortes, es generalizado, yo los sufro con Vodafone/Ono. Y no hay manera, el servicio técnico te dice que le envíes un informe de cuando se caen y que pasa, pero sido igual, es molesto pero puedo funcionar, en una empresa sería un desastre.
Lo mío no era normal Pedro. De hecho llevaba ya un par de años sin ningún problema, y de pronto empezaron. Hicimos todo lo posible y nada. Estos días con Vodafone, por ahora (no lo quiero decir muy alto), perfecto. Pero vamos, que ya sabes que en cualquier momento me toca cambiar a otra compañía…
Sencillamente: Los ciclos desde el diseño teórico hasta la salida a mercado de un producto, se han acortado tanto (y cada día más), que es normal que se comercialicen sin un adecuado periodo de prueba que minimice errores y maximice seguridad, durabilidad, y tiempo medio entre fallos.
Lo que lleva a ello es obvio: la competencia desmedida de un mercado globalizado.
Pues sí. En el caso del Note7 claramente el problema vendría influenciado por la necesidad de hacerle competencia al iPhone.
Y fíjate lo curioso que resulta el que se esté anteponiendo los ciclos de desarrollo del software en el hardware. Ciclos iterativos que incluso ya se plantean como betas (crowdfunding, por ejemplo), aún a sabiendas que el hardware una vez en manos del consumidor difícilmente puede ser actualizado sino es pidiendo su retirada.