El reconocimiento facial del iPhone X: un despropósito innecesario

face id apple

Toma titular clickbaiting que me marcado. Llevar la contraria a Cupertino a unas horas de que se celebrara su misa más importante.

Si usted ha llegado hasta aquí esperando simplemente saber de manera sintetizada las razones de tamaña herejía, le voy a simplificar la vida, que el tiempo del que disponemos hay que utilizarlo bien, y hay muchos otros titulares llamativos en su streaming social: El reconocimiento facial depende de la contextualidad ambiental, y requiere atención por parte del usuario. Lo primero es cierto que tiene solución técnica (veremos más adelante cómo lo ha implementado Apple en Face ID), pero lo segundo no, y es una putada.

A partir de aquí voy a dar un sermón sobre seguridad de la información, y por ende, sobre las características técnicas que tendrá el iPhone X para intentar democratizar lo que a todas luces sigue escapándose. Así que si simplemente quería quedarse con la idea banal y esquemática sobre el asunto, ya puede dejar de leer.

¿Que sigue por aquí?

¡Pues vamos a ello!

Dispositivos de movilidad apostando por identificación basada en la biometría

Un sistema de autenticación basado en la biometría arroja, por norma general, mayores comodidades al usuario que uno basado en la posesión, y ya ni hablemos de uno basado en el conocimiento.

Con el primero necesitamos tener, además del dispositivo o servicio donde queremos loguearnos, un dispositivo (elemento de posesión) cercano asociado con anterioridad a nuestra identidad que certifica que nosotros somos @nosotros. Con el segundo, necesitamos recordar una contraseña o un patrón y volver a plasmarlo en la interfaz. Sin embargo, los sistemas biométricos se basan en lo que de forma inherente somos, lo que significa que la comprobación únicamente depende de que nosotros seamos @nosotros, sin mayores jaleos (y con las garantías esperables).

El sensor de huella dactilar es, a todos los efectos, el sistema de autenticación más adecuado de la actualidad. Y digo adecuado porque bajo mi humilde opinión ofrece un equilibrio bastante interesante entre robustez, seguridad y usabilidad. Me explico:

  • Robustez: Hablé de ello en profundidad en su día. La cuestión es que el margen de error de los sensores de huella dactilar actuales hace que estos sistemas puedan ser considerados bastante robustos frente a intentos de logging de terceros. Es cierto, no obstante, que la tecnología que hay detrás es un fuerte limitador a la hora de definir la robustez del sistema, y ya hemos experimentado cómo algunas propuestas basadas en crear una fotografía a bajo relieve de la huella se dilapidaban simplemente escaneando la huella a suficiente resolución y colocándola encima de un dedo real. Pero presuponiendo que el sistema apuesta por la creación de un patrón tridimensional, el margen de error se minimiza (aumentando por cierto la usabilidad), y los ataques ya deben ser bastante más sofisticados (impresión de huella tridimensional en un material conductor).
  • Seguridad: El mayor handicap de los sistemas basados en la biometría es que si un atacante puede robar el patrón biométrico de una persona, la víctima no puede cambiarlo. O mejor dicho, tenemos 10 dedos (ergo, y presuponiendo que no utilizamos alguna otra extremidad para realizar las comprobaciones diarias -.-, tenemos 10 posibles cambios), dos ojos (ergo, dos posibles patrones de iris), una sola cara… De ahí que la seguridad de estos sistemas dependa fuertemente de la seguridad propia de todos los elementos que lo forman, y por tanto, de cómo se haya desarrollado cada una de sus partes. En la actualidad, cada vez más fabricantes apuestan por gestionar el patrón en local (esto, en buena parte, se lo debemos a Apple), sincronizando solo con la nube un token temporal, y complicando aún más ese robo de patrón que tanto mal podría causar.
  • Usabilidad: Llegamos al quid de la cuestión. Porque para el caso de la huella dactilar, los pasos para desbloquear un dispositivo pasan por poner el dedo donde corresponda y ¡voilà! Se simplifica hasta el absurdo la seguridad, lo que de facto incentiva a que muchos usuarios que antes no querían utilizar un patrón de desbloqueo por considerarlo molesto, se animen a utilizar estos sensores. Como para colmo el sensor suele estar también asociado a un botón, a la vez que lo pulsamos se enciende el dispositivo y nos identificamos, por lo que matamos dos pájaros de un tiro.

iphone x

El reconocimiento facial del iPhone X

En el iPhone X (ES) presentado hace escasas horas Apple ha apostado, debido a las limitaciones de espacio, por incluir Face ID como método de desbloqueo principal.

Hablamos de un dispositivo que, siguiendo la tendencia de otros terminales (como el MI MIX (EN)), apuesta por ofrecer prácticamente todo el frontal de pantalla. Lo que les ha obligado a quitar el botón de home histórico de los iPhones (por cierto, nueva excusa para renovar toda la gama de carcasas y fundas del mercado (ES)), y por ende, a eliminar también Touch ID.

Podría hablar largo y tendido de cómo esto no me parece lo más adecuado. Entiendo que lo que mola a día de hoy es precisamente el demostrar músculo sacando al mercado un terminal sin bordes, pero desde el punto de vista de usabilidad el que no haya bordes significa que habrá más toques de pantalla involuntarios, ergo peor experiencia. Como todo en esta vida, es cuestión de acostumbrarse (en mis pruebas con otros terminales es cierto que tarde o temprano le acabas cogiendo el truco), pero vaya, que el problema está ahí, y habrá que ver cómo Apple lo solventa (probablemente le hayan metido algún tipo de control de esos toques fantasma vía software para mejorar la experiencia).

Y puesto que volver a pedirle al usuario que meta contraseña o patrón parece muy del siglo pasado, se han decantado por Face ID, su apuesta por la identificación facial.

Como aspectos interesantes, está el hecho de que no se trata únicamente de utilizar la cámara frontal, sino que ésta viene acompañada de una cámara infrarroja, una luz de apoyo y un proyector. Con estos cuatro elementos (imagen destacada del artículo) el dispositivo es capaz de crear una imagen tridimensional del rostro de la víctima del usuario (por los 1300 dólares que va a costar no tengo claro cómo llamarles G.G), detectando por tanto profundidad, y evitando que, como ya le ha pasado a otros fabricantes, se pueda desbloquear simplemente poniendo una foto de la persona delante.

Pero como comentaba al principio de la pieza, el reconocimiento facial tiene dos grandes handicaps frente a otras propuestas biométricas como el sensor de huella dactilar. A saber:

  • Depende de la contextualidad ambiental: Un sensor de huella dactilar funciona siempre (o por ponernos estrictos, funciona siempre y cuando el usuario no tenga los dedos mojados o lleve guantes). Sin embargo, el reconocimiento facial depende de la luz ambiente, del entorno donde se haga, y de la ropa y elementos que llevemos en la cabeza. Con el HP Elite x3 que estuve probando en el verano me quedó claro que el asunto aún no estaba muy pulido. Bastaba con que un servidor se pusiera unas gafas de sol (algo muy normal en verano) para que el sistema fuera incapaz de reconocerme. Ya ni hablemos de intentar identificarme en espacios con poca luminosidad. ¿Qué ha hecho Apple? Dedicar parte del chip A11 para procesar los datos faciales y meterle inteligencia, de manera que en vez de tener que reconocer el rostro basándose únicamente en la distribución espacial de los elementos que lo forman, acepta un margen de error relativo (hasta un límite de 30.000 puntos). Eso significa que si el usuario lleva gafas de sol, los puntos referentes a los ojos no los tendrá, pero como el resto debería coincidir, el sistema sería capaz de reconocerlo. Y lo mismo pasa (en teoría) con lecturas ladeadas, con capucha, con baja luminosidad… ¿Cuál es el problema entonces? Que al aceptar más porcentaje de grises, también disminuimos la robustez del sistema (mayor margen de error), con todo lo que ello supone.
  • Precisa atención por parte del usuario: Pero vamos a suponer que, como ya nos tienen acostumbrados los chicos de la manzana, hayan encontrado un buen equilibrio entre margen de error y usabilidad del sistema. El principal problema que le veo a Face ID (y por tanto, a cualquier sistema de identificación facial implementado en dispositivos en movilidad) es que requiere que el usuario se coloque justo delante del dispositivo para loguearse. Y eso significa que no es posible desbloquearlo, o realizar una compra, de la manera habitual. Me explico. ¿Cuántas veces usted ha colocado el dispositivo justo delante de su cara para desbloquearlo? Lo más normal es que lo saque del bolso, y bien simplemente mientras sube el brazo, o bien a media altura, coloca su dedo en el lector y listo. Para consumir su contenido, lo habitual es que el dispositivo esté mirando hacia el cielo, a unos 70-80º respecto a la vertical (donde se supone que estará su rostro), no en paralelo hacia usted. El principal handicap de estos sistemas es que cambian el modo en que interaccionamos con el dispositivo, obligándonos a utilizarlo de una manera que a priori se siente antinatural.

Lo que no quita que crea que es una buena noticia que Apple se haya metido en este jardín. El iPhone X seguirá vendiéndose como churros y acabaremos por ver a la gente caminando por la calle con el dispositivo justo delante de su cara.

Lo que de facto obligará al resto de la industria a ponerse las pilas, mejorar este tipo de reconocimientos, y acabar creando un ecosistema tecnológico cada vez más cómodo y seguro (espero).

Larga vida al Face ID. Pese a lo absurdo que va a resultar utilizarlo.