psicopata


Estoy estos días repasando la documentación del Curso de Verano del 2017, unas jornadas anuales que celebra el CIGTR, la URJC y el BBVA, con el fin de ayudar a preparar el dossier que se entregará en la próxima cita (cada año se da a los asistentes un libro con todos los whitepapers de los ponentes del año pasado).

El caso es que esto me ha permitido volver a profundizar en algunos de los conceptos propuestos en la mesa redonda sobre Inteligencia Artificial, legislación y sociedad en la que participaron Rafael Ortega (ES), Lucía Halty (ES), Jose María Anguiano (ES), Fernando Velasco (ES) y uno al que muchos de los aquí presentes ya conocéis de sobra, Román Ramirez (ES).

Echándole un ojo a la hemeroteca (aka el cuadro de búsqueda superior) veo que por aquel entonces hablé de un tema que también me parecía profundamente interesante: el cómo el análisis de grandes volúmenes de información tiene una serie de limitaciones que van más allá de las obvias, y que pueden llegar a impactar muy nocivamente en el grueso de la sociedad. Pero esta vez, revisando la documentación, me ha parecido interesante escribir una pieza más de tinte ético sobre las pocas diferencias que existen entre la inteligencia artificial y la psicopatía humana.

¿Que de qué demonios me estás hablando, Pablo? Siga leyendo, ya verá como no ando muy desencaminado :).

¿Qué entendemos por emociones?

La tesis de Lucía iba más por estos derroteros. Lo que le preocupaba de la evolución de la robótica y la inteligencia artificial no era tanto su impacto a nivel económico (un tema que ya hemos tratado por aquí hasta la saciedad) sino a nivel puramente experiencial, en el cómo nos relacionaremos con una máquina capaz de reflejar emociones.

Y para ello acudía a las investigaciones de Harry Harlow en 1958. Este psicólogo americano realizó una serie de experimentos (ES) para intentar comprender qué necesita el ser humano para generar un vínculo afectivo. Y para ello, sustituyó a la madre biológica de unos monos rhesus por dos madres: Una de ellas de alambre, que es la que le proporcionaba alimento (a cambio de causar dolor), y la otra que no proporcionaba nada, pero que estaba recubierta por un tejido que emulaba el contacto natural con la madre biológica.


Ver en Youtube (EN)

Lo que descubrieron fue que la cría de mono pasaba el mínimo tiempo posible (obtener el alimento necesario para vivir) con la madre de alambre, y la mayor parte del tiempo estaba con el mono de felpa. Y la cosa no se quedaba ahí, sino que cuando a la cría se le asustaba, buscaba protección también en esta «madre».

De lo que se concluyó que:

  • No nos vinculamos por factores puramente interesados (supervivencia), sino más bien por el contacto físico (y en el caso de algunos mamíferos como los seres humanos, el visual) que establecemos con los demás.
  • El vínculo de apego, que es el primer vínculo que establece un bebé, es un vínculo que proporciona seguridad y regula afectivamente al niño. Es decir, es un regulador bioafectivo del niño, donde en situaciones de miedo, tranquiliza.

Ahora la duda está en qué pasará cuando seamos capaces de crear máquinas que sean prácticamente indistinguibles a un ser humano.

Si una máquina como Sophia (ES), que en algunos momentos rompe las limitaciones del valle inquietante y a ojos de cualquiera, si no fuera porque no le han puesto pelo, podría pasar por una persona de carne y hueso, es capaz de engañar al ojo humano. Si hay ya sistemas de inteligencia artificial capaces de pasar los test de turing sin problemas, es cuestión de tiempo que paradojas como la que se proponía en Her (un hombre que se enamora de su asistente virtual), en Trascendence (una IA que se vuelve trascendente) y, por qué no, también en mi querida Sarah (relato distópico escrito por el menda), pasen a ser el día a día.

Y llegados a este punto, es donde entra el conflicto.

¿Los sentimientos y emociones son elementos emulables informáticamente?

Aquí es donde quería llegar. La cuestión es que estamos ante una máquina capaz de generar contacto, seguridad, mirada y expresión emocional. Pero esto no significa que de verdad «sienta».


Éste es el mismo problema que definía en otra de mis piezas distópica, «Czarda«, a colación de cómo la definición de un nuevo lenguaje de la máquina fue el germen que llevaría a Sarah a la trascendencia.

Y me autocito, que para algo estoy en esta santa casa:

Sarah había encontrado la manera de solucionar este problema creando un lenguaje unificador. Y en su desarrollo, había prescindido de paso de las ataduras de la lengua creada por sus creadores, hacia derroteros tan sutiles, dependientes de variables tan poco intuitivas como el silencio, el instante y su posición dentro de un enunciado, que sencilla y llanamente se escapaban a nuestro entendimiento. […] La creación humana había evolucionado lo suficiente como para no volver a necesitar nada del ser humano, ni siquiera explicarle su razonamiento y el porqué de las decisiones tomadas.

La cuestión es que ni nosotros mismos somos capaces de comprender cómo funcionan las emociones, como para ser capaces de recrearlas en un sistema tan limitado como es el de una máquina creada por nosotros.

Pero (y aquí viene lo bueno) sí somos cada vez más capaces de emular dichas emociones. De entender qué inputs y que output debería tener esa máquina para que al menos ante nosotros (seres limitados) parezca que puede sentir.

Exactamente lo mismo que hacen los psicópatas (saben cómo nos sentimos, pero no sienten como nosotros).

Porque si algo nos enseñó Trascendence es precisamente que lo mismo una máquina trascendente, capaz de entendernos desde una óptica puramente objetiva, es también capaz de, en base a nuestro bien, destruir todo nuestro statu quo y amenazar con ello factores críticos para nuestra supervivencia como especie como puede ser el libre albedrío o las propias limitaciones orgánicas.


Esa máquina tiene la capacidad (y presumiblemente, también la responsabilidad) de ayudarnos. Pero es que lo mismo en la manera que tenga de hacerlo, a sabiendas de que es consciente de nuestras debilidades emocionales, nos conduzca hacia derroteros que atentan contra nuestros intereses:

¿Es ético que un coche pueda decidir si estamos o no en condiciones de conducir? Podría parecerlo en casos de embriaguez, ¿verdad?, pero ¿qué hay de una persona cuya identidad ha sido usurpada? ¿o de un fallo en las lecturas? ¿o de la decisión de la máquina de bajar por nuestra seguridad los límites físicos aceptables, prohibiendo por ejemplo a alguien que usa gafas y que las tiene ligeramente no bien graduadas el uso del vehículo? Son casos no contemplados a priori que podrían dejar fuera a un porcentaje significativo de la sociedad de una manera, hasta cierto punto, injusta.

¿Y si hablamos de un asistente virtual que, consciente del cariño que le hemos acabado por coger, utiliza esto para manipular nuestros actos y reconducirnos por un sendero que quizás sea más sano (empezar a hacer deporte para reducir la posibililidad de un accidente cardiovascular, por ejemplo)? ¿Sería ético que lo hiciera?

Esto mismo en manos de otro humano podría ser considerado negativo, e incluso, en algunos casos, judicialmente penable. ¿Qué haremos entonces cuando quien lo ejecute sea un «psicópata» que no es de carne y hueso?