dudas vision pro

La semana pasada publicamos una pieza hablando de todo lo que supone la llegada de las Vision Pro de Apple, haciendo hincapié en algunos puntos que me preocupaban, como era el hecho de cómo gestionará la privacidad y seguridad de los datos biométricos, y los problemas ya esperables para su expansión como interfaz estándar, como ese nuevo «The next big thing».

El artículo ya era largo, y lo publiqué a las pocas horas de que se presentase, por lo que como es normal, me dejé algunos puntos que hemos ido conociendo algo más en profundidad en estos últimos días, sobre todo conforme han empezado a llegar primeras impresiones de los periodistas que han estado probando en las oficinas de Cupertino las gafas.

Uno de ellos ha sido Ángel Jimenez para El Mundo (ES), así que tras leer el de él y el de otros que han ido publicando en medios de habla inglesa como TechCrunch (EN) o en canal de Youtube Marques Brownlee (EN), quería hablar de algunos puntos en particular que me parecen verdaderamente innovadores.

vision pro lidar

Todas las cámaras y sensores con los que cuenta el visor

Es un primer prototipo, por mucho que se venda como producto final

Esto ya lo dejaba claro en el artículo de la semana pasada, pero quiero volver a recordarlo.

Las Vision Pro de Apple no dejan de ser la primera incursión seria de Apple en esta nueva categoría de producto. Un dispositivo realmente revolucionario, pero que hereda el mal de cualquier primera versión.

El mejor ejemplo lo vemos en el apaño, a mi punto de vista bastante cutre, pero necesario, que han tenido que realizar para los que usamos gafas. Y es que con las Vision Pro no se puede utilizar gafas de ver.

¿Qué solución hay? Pues previamente habrá que, en una tienda de Apple, realizar un estudio de nuestra vista para que las gafas que compremos vengan con unos cristales específicos que nos permitan usarlas.

Todavía no hay mucha información al respecto, pero conociendo a Apple no dudaría que esas lentes supongan un sobrecoste sobre el ya excesivo coste de las gafas. Y además, queda también por ver si esos cristales será intercambiables, ya que en caso de que no lo sean, estaríamos ante un dispositivo que tendrá que ser, sí o sí, exclusivo de cada usuario, como si de un móvil se tratase (uno para el padre, uno para la madre, y otro para cada hijo…).

Pero el que más llama la atención es el que han tenido con la batería externa.

A saber:

Las vision pro pueden utilizarse de dos maneras: O bien conectadas a la corriente mediante un cable magnético, o bien conectadas a una batería externa que da UN MÁXIMO de dos horas de autonomía.

Recalco lo de un máximo porque es importante. Probablemente esas dos horas no las veas nunca a no ser que apenas pongas las gafas y no hagas nada.

Y por otro lado, el dar dos horas únicamente se me antoja realmente corto, a sabiendas que un posible uso la mar de interesante de este tipo de gafas sería el consumo de contenido (cine/videojuegos), y ya me dirás tú qué película, y por supuesto qué videojuego, vas a poder disfrutar si a lo mejor, reproduciéndolo, tienes menos de hora y media de autonomía…

El que la batería tenga hasta dos horas de autonomía se podría entender, además, si es que esta estuviera incrustada como ocurre con el resto de cascos de realidad virtual/mixta/aumentada, en el propio dispositivo.

A fin de cuentas, tenemos un dispositivo que debe estar colocado en la cabeza (obviamente), y que por tanto tampoco puede pesar mucho, ya que si no la fatiga física sería considerable.

Pero es que Apple ha decidido sacar la batería fuera del dispositivo (por lo que dicen los que ya lo han probado, la ergonomía del casco está muy cuidada, pero no deja de ser un casco relativamente pesado aún considerando que no tiene la batería interna), en formato petaca para que la tengamos metida en el bolsillo, y unida al casco mediante un cable.

Es un acercamiento, pero deja claro que esto no es el tipo de respuestas a problemáticas de diseño que esperaríamos ver en un producto de Apple.

Por comparar peras con manzanas, ahí tienes las Oculus de Meta que sí son realmente autónomas, sin cables. Las Vision Pro obviamente son mucho más potentes, pero en pleno 2023, parece que Apple ha tenido demasiada prisa en sacar al mercado un producto como este que sigue dependiendo de cables para funcionar, y con una autonomía que prácticamente lo hace inútil si no es conectado directamente a la corriente: El uso que mayoritariamente se le tendrá que dar, y que supone no solo depender de cable, sino además estar atado a un espacio reducido.

Por último, tenemos el precio, que apunta nuevamente a que estamos ante una primera versión de un futuro producto.

Se habla, de hecho, que Apple tiene planteado fabricar poco más de 200.000 unidades (EN) en 2024, lo que ya de base nos deja claro que la propia compañía es consciente de que estamos ante un dispositivo prototipo, con un coste excesivamente alto, y enfocado solo a aquellos early adopters que con su uso ayuden a que futuras versiones, si es que tiene sentido a nivel de mercado, liman las asperezas de esta primera versión a un coste mucho menor.

vision pro pantalla

Lo que el interlocutor verá de nosotros cuando nos mire con las gafas puestas

La experiencia para quien está delante de nosotros

El segundo punto en el que quería pararme es cómo ha resuelto Apple uno de los principales handicap que tienen este tipo de gafas, que no es otro que el aislamiento.

Hoy en día la tecnología no permite ofrecer tanto sino es poniendo al usuario un casco que se asemeja bastante a unas gafas de esquiar o de hacer esnórquel. Es decir, un aparato que ocupa una parte considerable de nuestro rostro, y que para colmo, al tener que pintar por encima de lo que vemos una serie de interfaces, nos separa de lo que hay alrededor.

En el vídeo de presentación de Apple, la compañía estuvo rápida al intentar enseñar los render de uso con actores siempre rodeados de otras personas, y aquí viene la verdadera duda que tenía, y era si en efecto, habían conseguido la cuadratura del círculo a la hora de ofrecer una realidad mixta que no te aislase del mundo que te rodea.

La respuesta todavía no está del todo clara (todos los que probaron las gafas lo hicieron en solitario, por lo que no tenemos una reseña neutral de cómo es estar delante de una persona que lleva las gafas puestas), pero todo apunta a que en la propuesta hay aciertos… y algunos fracasos.

A saber, las Vision Pro cuentan con numerosas cámaras y sensores para reconocer tanto el entorno, como nuestro movimiento facial/ocular.

Esto, obviamente, permite identificar a la persona como usuario del sistema operativo para «loguearse» (el tema del análisis biométrico que ya expliqué en el otro artículo), pero también, como decía en ese, reconocer cuando alguien se nos acerca para, si así lo tenemos definido, que la opacidad de la realidad mixta disminuya y podamos mantener una conversación con la otra persona.

Ahora bien, esto de cara al usuario me parece todo un acierto, ¿pero qué verá la otra persona al mirar a alguien con unas gafas de buceo en la cara?

En el artículo dejaba intuir que lo que vería, al bajar esa opacidad, eran los ojos de la persona. Algo oscurecidos, pero sus propios ojos, por lo que al menos la conversación no verbal se podría más o menos mantener. Sin embargo, parece que estaba equivocado, ya que lo que verá la otra persona no son los ojos tal cual del usuario, sino una reconstrucción digital de los mismos reproducida en una pantalla OLED externa. Es decir, que lo de la opacidad de la pantalla es digital, no física, y por tanto, entramos en el ya clásico problema del valle inquietante:

El ojo humano es muy buen reconociendo patrones naturales. De ahí que cuando vemos una película de animación o cuando jugamos a un juego de realidad virtual, aunque sea hiperrealista, se produzca una especia de disonancia que nos lleva a darnos cuenta de que algo está mal. Lo que vemos parece real, pero SABEMOS que no lo es.

Con las Vision Pro pasará lo mismo. Esos ojos digitales transmiten con bastante acierto todos los microgestos que haga el usuario en pseudo-tiempo real. Pero no son los ojos reales, por lo que es probable que aunque en el vídeo de presentación los actores parece que no notan ninguna diferencia, cuando llegue este primer prototipo a las calles nos demos cuenta de que la idea funciona, pero ni de lejos resultará tan cómodo hablar con alguien así si no es quitándose este las gafas.

La interacción por voz, gestos y el reconocimiento de iris

Por lo que cuentan los que lo han probado, la interacción con el sistema operativo de las gafas es muy fluida, y se realiza, como ya adelantamos, mediante tres líneas:

  • Peticiones de voz: Invocando a Siri, vaya. Un sistema que se me antoja muy invasivo, pero que es normal que acabe estando disponible en un dispositivo como este.
  • Gestos: Pensaba que aquí habría una revolución mayor, pero parece que esto se reduce a unos «pellizcos» que podemos hacer con los dedos de la mano a modo de hacer clic para acceder a aplicaciones o abrir documentos. Como punto positivo, al parecer el reconocimiento de la mano funciona a las mil maravillas, pudiendo tener las manos delante del visor, pero también apoyadas en los cuadriceps mientras estamos sentados e incluso con algunos escorzos. Mientras lo que es la mano sea visible para alguna de las cámaras y sensores que tienen las gafas, parece que funciona.
  • Reconocimiento de iris: La gran incógnita, y por lo que parece, el gran acierto de Apple. El complejo sistema de sensores biométricos parece que cumple en esas primeras pruebas que han hecho algunos periodistas. Tanto como para poder considerarlo, per sé, como la gran revolución del dispositivo. A cambio, ya sabes, supone aceptar un sacrificio a nivel de privacidad y datos de carácter personal (biométricos, para más inri) considerable, afortunadamente de parte de una empresa que hoy por hoy no gana mucho dinero con la explotación de los mismos.

Algunos han hablado también de ese teclado virtual que es posible abrir para escribir algo, y la mayoría parece estar de acuerdo en que es útil, pero su uso será más bien anecdótico. Apple no hace magia, y entiendo que una cosa es conseguir leer un pellizco en la mano del usuario, y otra bien distinta identificar en la infinidad de casuísticas posibles qué botón virtual está apretando el usuario con uno de sus diez dedos. Permitirá por tanto salir de un apuro para poner un texto corto, pero dudo mucho que su usabilidad permita poco más, recurriendo siempre que necesitamos sí o sí escribir con fluidez a un teclado físico conectado por bluetooth.

modelo 3d vision pro

Un ejemplo del avatar 3D personalizado que verá la otra persona cuando hable con nosotros por FaceTime

Solventando con matices la experiencia en videollamadas

Había otra duda en el aire, y es cómo funcionaba esa suerte de digitalización de nuestro rostro para realizar videollamadas por FaceTime.

Me explico:

Cuando nosotros hacemos una videollamada con un dispositivo «tradicional», somos nosotros quienes se ponen delante de las cámaras, y por tanto la comunicación con la otra persona es directa (nosotros la vemos, y ella nos ve a nosotros).

Pero claro, al hacer esto mismo con unas gafas, nosotros podríamos verla, pero ella a nosotros no, ya que las cámaras están dentro del propio dispositivo y este colocado en nuestro rostro, no a una distancia mínima del mismo.

¿Qué solución se ha sacado Apple de la chistera? Pues aprovechar previamente todas esas cámaras externas y el LIDAR con el que cuentan para virtualizar nuestro rostro, creando por tanto un avatar digital de nosotros mismos que luego sea el que, en pseudo-tiempo real, vaya imitando los movimientos y gestos que hagamos mientras realizamos la videollamada.

De esta manera, nosotros veremos en el visor de las gafas a la otra persona, y esta verá de nosotros un avatar que se parece mucho a nosotros y que realiza exactamente los mismos micro-gestos que hacemos mientras hablamos.

Pues bien, sobre el papel suena genial. La realidad es que, nuevamente, la tecnología es la que es, y todos los que lo han probado apuntan a que estamos ante otro problema del valle inquietante.

Mejor en cuanto a expresividad a los acercamientos, por ejemplo, que ha tenido Meta con los avatares del metaverso (que son básicamente una versión en dibujo animado de nosotros mismos), pero lo suficientemente artificiales para que se sienta que estás hablando con un avatar, y no con la persona.

Que lo que tienes delante, a fin de cuentas, es un producto creado, y no el verdadero interlocutor.

Algo a lo que habrá que habituarse, todo hay que decirlo. Porque probablemente esta sea la mejor alternativa a la que podamos esperar llegar con la tecnología y capacidad de procesamiento actual.

Conclusiones

En fin, que estamos, como ya dije en su día, ante un producto revolucionario.

Uno que no deja de ser un prototipo de algo que quizás (queda por ver si es así) acabe marcando una nueva era en esto de la informática de consumo.

Pero en todo caso, un prototipo sacado al mercado y vendido como si de un producto final se tratase, enfocado a un nicho de mercado muy pero que muy específico (todo aquel amante de la tecnología que no le importa pagar un sobreprecio por probar lo último de lo último, y quizás algunos mercados profesionales que puedan sacarle tajada económica), que servirán de conejillos de india para ir poco a poco puliéndolo para futuras versiones.

  • ¿Que vives solo en casa y te estás planteando comprar un sistema de cine en casa de ultimísima generación para tus sesiones? Pues lo mismo en vez de un televisor y un home cinema, estas gafas pueden ser tu solución.
  • ¿Que eres un geek amante de los productos de Apple, con ya todo el ecosistema alrededor tuyo, y para ti 4.000€ no supone un desembolso privativo? Pues vas a quedar genial cuando algún amigo venga a casa para pasar el día.

Para el grueso de mortales, no obstante, estas primeras Vision Pro no parece que vayan a suponer un antes y un después en la forma en la que comprendemos la tecnología, teniendo como tienen una serie de carencias que las hacen difícilmente competitivas a nivel de productividad con la icónica y ya tradicional figura de un ordenador, un teclado y si me apuras un ratón.

consultoria Presencia en Internet