ChatGPT-4o, o Project Astra de Gemini (la IA generativa de Google), presentaban hace ya unas semanas lo que será el futuro de los agentes de IA enfocados a la asistencia virtual.

Sistemas capaces de comunicarse en onminacanalidad (es decir, recibiendo entradas y salidas en texto, voz, imagen y vídeo) con una comunicación MUY HUMANA.

Y por humana me refiero a que perfectamente podríamos estar pensando que estamos hablando con un ser humano.

  • Uno que siempre nos va a dar la razón.
  • Que siempre va a estar ahí cuando lo necesitemos.

En este programa del podcast enCLAVE DIGITAL analizamos los riesgos psicológicos y sociales que supone la relación con agentes de IA que parecen humanos… pero no lo son.

¡Empecemos!

psicopatia ia

ChatGPT 4o

Antes de nada, un pequeño disclaimer.

En efecto, estoy grabando este podcast en otro estudio. El de mi casa en el norte de España.

Me ha pillado justo esta semana fuera, así que lamento ya de antemano si la calidad de la imagen no es perfecta, y si la voz se me oye… diferente.

Estoy usando otro micro que es de peor calidad, y una cámara que aunque, en principio, tiene mejor resolución, no viene con esos filtros de influencer/youtuber tan chulos como la otra.

En todo caso, creo que es mejor grabar así el contenido que no grabarlo, así que, vamos al lío.

Y lo hacemos, empezando, por las novedades que poco a poco nos están llegando también a los de habla española.

Básicamente, a mediados de mayo Open AI presentó ChatGPT-4o, que estaría disponible tanto para los usuarios de pago, como para los gratuitos, y que viene a ser un ChatGPT3.5 pero omnicanal (de ahí la «o» del final).

¿Qué quiere decir esto?

Pues que permite, por primera vez, comunicarse con el asistente de manera conversacional, como lo harías con cualquier persona.

Y ojo, que esto va bastante más allá de poder usar la voz para pedirle información.

En las demos que presentaron los chicos de Open AI podíamos escuchar conversaciones totalmente naturales, con cortes a la IA, con esta IA usando coletillas para hilar temas.

Literalmente es como si el, o los presentadores, estuvieran manteniendo una llamada telefónica con un amigo.

Te dejo por aquí un extracto para que valores tú mismo:

En el vídeo, que acabo de silenciar para poder seguir con el podcast, se puede ver cómo el presentador está hablando hacia un smartphone con la cámara encendida.

En un momento dado, el chico le muestra con la cámara trasera del móvil al plató donde está, preguntándole qué le parece el sitio, y la IA, después de soltar un «Mmm…» como si estuviera reflexionando, le dice que quizás pueda estar en «algo así como un plató de grabación».

Todo, recalco, de una manera totalmente orgánica y fluida. Esta misma conversación la podríamos haber tenido tú o yo en una videollamada.

Y no solo eso, si no que también presentaron algunos casos de uso chulos como este del cual me hice eco el día de la presentación, en la que un ciego utiliza esta omnicanalidad de ChatGPT para pedirle al asistente virtual que le vaya definiendo todo lo que tiene a su alrededor:

El usuario coloca delante suya el móvil frente a lo que parece ser un viaje turístico, y parado delante de varios espacios de Londres, le va pidiendo al asistente que le cuente qué tiene a su alrededor.

Incluso llega a usar el asistente para que le avise, parado al lado de una calle londinense, cuando pase un taxi que esté disponible. La IA le avisa que está llegando uno, y en ese momento esta persona hace una seña al aire para que el taxista se pare, y pueda montar.

Obviamente, todo está muy teatralizado. No tengo muy claro yo que a partir de ahora veamos a muchos ciegos por la calle cambiando su bastón por un smartphone para invocar a su asistente…

Pero el potencial, que es lo que importa, está ahí.

La IA es ya capaz de comprender la lógica de un mundo exterior en tiempo real, y tomar decisiones complejas en cuestión de milésimas de segundo, ofreciendo al usuario una suerte de respuesta a acciones en la vida real.

Viniendo como venimos, de hace apenas un par de años con chatbots conversacionales muy flojos e hiperespecializados, OSTIA, la evolución es clara.

Project Astra de Gemini

Al día siguiente, Google en su Google IO, el evento para desarrolladores anual de la compañía, presentaba sus avances en IA, que iban igualmente en sintonía con los de OpenAI.

Project Astra viene a ser la propuesta de Agente de IA Omnicanal de Google, cuyo funcionamiento pudimos ver en varios vídeos.

Entre ellos, me gustó mucho esta demo (si me estás solo escuchando y no viendo también, tranquilo, que te lo voy a contar de viva voz) en la que una chica, con el móvil delante suyo (parece que este es el formato que han encontrado en las compañías tecnológicas para meternos hasta en la sopa sus nuevas IAs…), le pide al asistente virtual mientras apunta con la cámara trasera del móvil, que le diga, en lo que parece ser una oficina de trabajo, cuando esta identifique algún tipo de dispositivo capaz de emitir sonido.

Al pasar delante de un ordenador de sobremesa con unos altavoces a los lados, la IA le dice que eso que tiene delante parecen ser unos «speakers«.

La chica se acerca a uno de los altavoces, y dibujando encima de la cámara una flecha, le pregunta qué es ese elemento en particular del altavoz, respondiéndole la IA que se trata del sistema de sonido. Lo que le permite al altavoz reproducir las diferentes frecuencias.

El vídeo sigue, y llega un momento en el que la chica se acerca a donde está trabajando un compañero, y apunta con su móvil a la pantalla, preguntándole a la IA que para qué sirve el código que está programando el chico.

El asistente, al momento, identifica que se trata de una serie de funciones cifradas con algoritmo AES-CBC.

Apunta más tarde a la ventana, preguntándole que donde está, y la IA es capaz de identificar la zona.

Y así podría seguir largo y tendido los algo más de dos minutos que dura el vídeo.

Le pregunta también que dónde ha dejado sus gafas, y la IA le avisa que están cerca de su despacho.

Una excusa perfecta para que las recoja y, entonces sí, deja el móvil y al ponérselas se puede ver que estas gafas cuentan con un sistema de cámaras asistidas por la misma IA, cambiando de la interfaz con el móvil a simplemente caminar y pedirle a la IA que le de información sobre el mundo que le rodea.

Este último cliffhanger es lo que muchos esperábamos que ocurriese.

Hace unas semanas pude probar en primicia las nuevas gafas inteligentes de Rayban (EN), en una colaboración con Meta, la empresa detrás de Facebook, WhatsApp, Instagram y compañía.

Y aunque por ahora solo funcionan en inglés, esto sí me parece un modo de interacción con la máquina que se siente natural.

@pabloyglesias MASCOTAS DIGITALES Aquí, pasándolo bomba en el #Sherpaday2024 con el gran Javier Sirvent, @eliaguardiola, y este pequeñín cuyos 1s y 0s aún están en proceso de aprendizaje :). #IA #inteligenciaartificial #tecnologia ♬ sonido original – Pablo F. Iglesias

Te pones unas gafas que podrían pasar por cualquier gafa de pasta ancha, y cuando necesites invocar el asistente, este activa la cámara delantera (tranquilos que se enciende también una led informativa para que sepamos que en ese momento se está grabando) para responderte con el contexto adecuado.

Obviamente, las Smart Glasses de Ray-Ban eran aún muy limitadas en cuanto a interacción (y, además, solo en inglés, acuérdate). Pero un factor forma como el de esas gafas, con un Agente de IA como puede ser ese Gemini o ese ChatGPT 4o, presuponiendo que, en efecto, se pueda ejecutar en un procesador diminuto (recordemos que toda la inteligencia está en una de las varillas laterales), y que cuente con una autonomía mínima (que al menos te de para varios usos puntuales en el día a día, aunque el grueso del tiempo, ya no solo por autonomía, sino por privacidad, el sistema esté apagado), es lo que de verdad haría explotar este tipo de asistentes en el grueso de la sociedad.

Esa TECNOLOGÍA INVISIBLE, y ACCESIBLE, que algunos llevamos liberalmente décadas demandando.

Los riesgos de la democratización de los asistentes virtuales

Hasta ahora hemos visto todo lo bueno que nos pueden llegar a ofrecer.

Pero quería centrarme en este videopodcast en su lado oscuro.

Uno que ya he tratado hasta la saciedad en mis novelas distópicas.

De hecho, da la casualidad que he estado re-visitando mis escritos últimamente.

Es algo que hago de vez en cuando, ya que mi memoria es malísima (de ahí, por cierto, que hace ya más doce años decidiera empezar a escribir un blog diario en Internet), y joder, tengo que decir que obras como 25+1 Relatos Distópicos, o la que es, de facto, la secuela (aunque se puede disfrutar perfectamente sin haber leído la primera) Historias Conectadas, ya se profundizaba en varios de los temas que hoy en día son candentes en la actualidad tecnológica.

Entre ellos, el hecho de que no es para nada casualidad que Open AI, Meta, Microsoft, Google, y en definitiva, el resto de grandes tecnológicas, hayan decidido irrumpir en la industria de la IA con esa primera fase de chatbots conversacionales, y ahora con asistentes de voz.

Podían, de hecho, haberlo hecho integrando estas asistencias en sus herramientas de productividad y entretenimiento.

Pero todas, y cada una de ellas, lo hicieron con el factor forma de un chatbot. Es decir, de una interfaz de chat, en la que interaccionamos, primero con texto, más adelante también con imágenes y vídeos, y ahora directamente con la voz.

Me explico:

No es casualidad que las IAs generativas hayan llegado a nuestras vidas en formato chatbot conversacional, y no integradas en servicios que ya usábamos habitualmente.

Al interaccionar con la máquina mediante una conversación, humanizamos al sistema, dotándolo de personalidad, y por tanto, de sentimientos.

De ahí que muchos usuarios lleguen a pedirle que, por favor, les haga un trabajo. O que para invocarlas, haya que llamarlas previamente por su nombre.

Esa antromorfización de la máquina genera cercanía. Ataca a los impulsos sociales del ser humano.

De esta manera, se genera mayor dependencia de estas herramientas, que ya no son solo vistas como una herramienta, sino como ese «asistente» que está ahí cuando lo necesitamos.

Pablo F. Iglesias

A nivel de negocio, como decía, este acercamiento es profundamente interesante.

Pero, ¿a nivel social?

¿A nivel de individuo?

Pues no tanto.

Recientemente, un estudio de la Universidad de Stanford, analizando las relaciones de dependencia que se generaban con el uso de Replika, uno de estos chatbots conversacionales, y que se vende como una cura contra la soledad, constataba que, en efecto, algunos estudiantes habían sido disuadidos por el acompañamiento de la IA a suicidarse.

Lo cual, claramente, es positivo, y demuestra que, al menos en un porcentaje de sus ¿pacientes?, el asistente funciona.

Pero a cambio, la IA generaba en los estudiados una dependencia emocional que llegaba a aislarlos del resto de la sociedad.

Los investigadores de la Universidad de Stanford estudiaron a mil estudiantes solitarios que usaban Replika, 30 de los cuales dijeron que el chatbot de IA los había disuadido de suicidarse (a pesar de que no se hizo ninguna pregunta específica sobre el suicidio en el estudio).

Esta investigación muestra que tener un amigo IA puede resultar útil para algunas personas. ¿Pero resulta útil para todos? Considere las siguientes cuatro señales de alerta: cuantas más señales de alerta levante su amigo AI, más probabilidades habrá de que sean perjudiciales para usted.

Reportaje en TheConversation.com (EN)

¿Y cuáles son esas cuatro señales de alerta?

Pues ahora mismo, las vamos a ver.

Empatía psicopática de los agentes IA

El de CEO de Replika defiende su desarrollo aludiendo a que su IA ofrece un apoyo incondicional a sus usuarios. Sin embargo, está más que demostrado que un afecto constante, y un entorno sin críticas objetivas puede generar en el individuo una autoimagen distorsionada, y en última instancia, dificultar el desarrollo de habilidades sociales esenciales para la vida en colectivo.

Por ejemplo, un estudio (ES) de 2017 con 120 parejas de padres e hijos en los Países Bajos encontró que los elogios exagerados de los padres predecían una menor autoestima en sus hijos.

Además, los elogios demasiado positivos de los padres también predijeron un mayor narcisismo en niños con alta autoestima.

Y claro, una IA está diseñada para ser usada. Para generar dependencia (ergo, negocio), no para generar rechazo. Rechazo como el que todos vamos a sentir cuando no nos dan la razón, o critican, aunque sea constructivamente, una acción y idea nuestra.

Algo que pasa por igual en el ámbito moral, el segundo punto en el que quería detenerme.

Las IAs no han sido diseñadas para dictar lo que es ético o moral. Es más, ya expliqué en su día cómo esto es prácticamente imposible de sistematizar (depende de numerosos sesgos culturales y sociales, y además es relativo a cada colectivo).

El riesgo aquí radica en que una persona cuya principal interacción sea con una IA (su asistente virtual) es bastante probable que experimente daños psicológicos por el vacío moral creado cuando sus principales contactos sociales han sido diseñados única y exclusivamente para satisfacer sus necesidades emocionales, generándole una falsa sensación de comodidad y de «libertad» de actuación y pensamiento.

A esto se refiere Raffaele Ciriello como empatía psicopática:

Tenemos que ver más allá de la falsa empatía psicopática de los amigos de la IA.

Pasar tiempo con amigos de IA podría exacerbar nuestra soledad a medida que nos aislamos aún más de las personas que podrían brindarnos una amistad genuina.

Declaraciones de Raffaele Ciriello, experto en IA

De estos dos puntos, pasamos al tercero, que tiene que ver con las relaciones eróticas y/o sexuales.

En el evento de hace unos días, OpenAI dejó abierta la posibilidad a ser más transigentes con el carácter erótico o sensual de su IA.

No es para menos. HAY MUCHO NEGOCIO EN ELLO.

Ya hace años en uno de mis relatos hablaba del parasitismo social que generaría la creación futura de asistentes virtuales. Unos capaces de satisfacer nuestros más internos y oscuros deseos, generando esa descarga fácil de dopamina que sentimos al estar excitados.

¿Que qué tiene esto de malo? Te preguntarás.

Y la respuesta es muy sencilla.

Al igual que ocurre con aquellos obsesionados con el porno, o con el grave problema que estamos empezando a ver con estas nuevas generaciones cuyo primer contacto con el sexo se realizar mediante el consumo de pornografía, esa facilidad de generar un estado de satisfacción inmediato contradice la vida real, donde, por regla general, hay un esfuerzo extra, una serie de barreras limitantes (tanto de alcance, como del hecho en sí) que pueden llevar a estas personas a sentir rechazo hacia las relaciones humanas.

A fin de cuentas, una relación erótica o incluso sexual con una IA genera una recompensa inmediata, constante y de bajo riesgo, frente a la cruda realidad que todos nos vamos a encontrar, o nos hemos encontrado con este tipo de relaciones entre humanos.

Y, por último, no debemos olvidar algo que he repetido hasta la saciedad a lo largo de este podcast.

Todas estas IAs han sido creadas por empresas.

Incluso Open AI, te recuerdo, lo primero que hizo tras el éxito que sufrió ChatGPT en su lanzamiento, fue cambiar su denominación social, pasando de una organización sin ánimo de lucro, a una corporación privada.

Es decir, que consiguió crecer precisamente amparándose en que su trabajo se hacía con fines puramente académicos y de investigación, para luego, cuando ya tenían el producto creado, pasar a ser una empresa y monetizarlo.

Este último punto es crítico para entender todos los anteriores, ya que, de nuevo, el objetivo de ese ChatGPT, de ese Gemini, de ese Copilot, y en definitiva de todas las IAs del mercado… es generar ingresos.

No es que estén preocupados por nuestro bienestar.

Lo que les preocupa es que estemos lo suficientemente cómodos usándolas como para que no nos planteemos que dejemos de hacerlo.

Unas IAs que estarán ahí… mientras la empresa que está por detrás tenga negocio.

Ha pasado ya, y seguirá pasando, que un buen día ese amigo virtual que tienes. Incluso esa pareja virtual, de la noche a la mañana cambia debido a una actualización, o simplemente desaparece tras el cierre del servicio.

Es, de hecho, otro de los temas que traté en su día en uno de los relatos de mis libros.

Es, de facto, parte de la trama principal con la que empieza 25+1 Relatos Distópicos, con una IA que adquiere la capacidad de entender el mundo que le rodea, y con el objetivo de proteger a sus creadores, les niega el acceso a parte de la tecnología que ellos mismos han creado.

Nunca habíamos estando tan cerca de la ciencia ficción, y eso es increíble, y la vez terrorífico.

Pero ahora, turno para ti:

  • ¿Habías pensado en estas cuatro razones para temer el impacto social de los asistentes virtuales?
  • ¿Se te ocurre alguno más?

Déjame saber lo que piensas en comentarios, ¡y abramos debate!

Sobre el videopodcast enCLAVE DIGITAL

enCLAVE DIGITAL es el videopodcast de Pablo F. Iglesias, consultor de presencia digital y reputación online.

Si este contenido te sirve para estar bien informado sobre la actualidad en materia de negocios digitales, reputación y tecnología, te agradecería que le dieras a suscribirte en mi canal de Youtube o en la plataforma de podcasting desde donde me escuchas, le des a Me Gusta, me dejes un comentario o reseña y lo compartas con aquellos a los que les pueda interesar.

¡Seguimos!

Si utilizas otra plataforma de podcasting, busca «enCLAVE DIGITAL« en la app para localizarlo, o visita la página del videopodcast, donde ofrezco enlaces directos a las principales plataformas actuales: