robotica eu

Hablé de ello a finales de junio del año pasado en la intranet de mecenas (ES), y he ido pincelando desde entonces por estos lares alguna que otra pieza en la que adelantaba parte de los retos a los que la tecnología, y en especial, la inteligencia artificial, nos está dirigiendo.

Crisis como la que estamos viviendo con la guerra entre combustibles fósiles y energías libres, con la paulatina destrucción del trabajo como esencia de la vida en colectivo, con el alza de la moneda virtual y digital en detrimento de la física, y con la ruptura de los canales de conocimiento estandarizados historicamente en favor de la digitalización, son solo síntomas de una compleja red de efectos que nos llevan directos a una sociedad basada en la abundancia.

Y como en su día ocurrió con otros temas avanzados a su época, el debate asociado tiende a causar rechazo.

No es para menos. Hablamos de destruir el statu quo que durante los últimos siglos ha dado sentido a nuestra existencia.

Nacemos para formarnos en una serie de labores que sirven, de una u otra manera, a la sociedad. Y pasamos el resto de la vida dedicando la mayor parte de la jornada diaria a ello, para luego, con suerte, disfrutar de los últimos años recogiendo lo sembrado. Hemos sido por tanto educados, social e institucionalmente, para cumplir una labor en la sociedad. Pero ¿qué pasará cuando la labor que nosotros queremos realizar, y para la que hemos dedicado toda nuestra infancia y adolescencia, de pronto es resuelta más eficazmente por una máquina?

Que se generarán más puestos de trabajo técnicos relacionados con la creación y el mantenimiento de estas máquinas.

Pero ¿qué pasará cuando esas máquinas sean capaces de auto-mantenerse y auto-crearse? O al menos, sean capaces de minimizar el fallo de su hardware. ¿Qué pasará cuando esas máquinas, hoy en día imperfectas, tengan tiempo y recursos suficientes para aprender de los millones de intentos anteriores, ahí donde nuestra biología supone una limitación insondable, y acaben por superarnos a tal nivel que ya ni siquiera sea necesario nuestro papel como directores de orquesta?

Este escenario no llegará dentro de un par de años. Ni tan siquiera dentro de una década, pero quizás sí sea el escenario que les toque vivir a nuestros hijos y a nuestros nietos. Y es algo que ya está pasando, a mucho menos nivel, en todas y cada una de las industrias que se están subiendo al carro de la transformación digital.

Un carro basado en la más pura y necesaria eficiencia. De energía, económica, informativa y, por supuesto, de recursos. Ahí donde el humano hasta hace apenas medio siglo era el único elemento a considerar.

Regulando un escenario compartido con robots

El jueves pasado se aprobaba por la Comisión de Asuntos Jurídicos del Parlamento Europeo un informe que busca regular el mercado de la robótica (ES), sentando unas bases proteccionistas sobre cuestiones de ética, seguridad y responsabilidad.

La idea, como comentaba Mady Delvaux, la eurodiputada autora del informe, es adelantarse a una realidad antes de que sea demasiado tarde, proponiendo una serie de leyes que cubrirían la mayoría de casuísticas en donde un robot podría estar envuelto.

Queda por tanto que la Comisión Europea se declare a favor o en contra de la medida, la cual propone los siguientes seis puntos:

1.- Todo robot deberá tener un interruptor de emergencia

La creación de un kill switch es una petición histórica de buena parte de los profesionales del sector. La singularidad, entendida como ese momento en el que la inteligencia artificial de la máquina supere a nuestro entendimiento de la misma, podría acarrear serios problemas futuros a nuestra sociedad.

A fin de cuentas, ya hemos planteando en su momento 5 escenarios completamente plausibles, ejemplificados en las labores de un robot de limpieza, en los que una IA trascendente, en base a la más pura asignación de sus tareas, puede llegar a oponerse al papel de su dueño y/o del resto de humanos.

Aplicando la lógica que rige hoy en día la mayoría de estas IAs (aprendizaje profundo en base a recompensas, supervisión y repetición de los éxitos), ese robot de limpieza podría llegar a considerar un plato sucio encima de la mesa como basura, habida cuenta de que en su programación debería priorizar la limpieza de superficies frente a labores más complejas como limpiar un plato (tirar los restos de la comida en la basura, fregar, secar y almacenar). Que una muñeca de la niña sea considerada objeto de tipo 1 (polvo, pelusas, bienes rotos, deshechos…) habida cuenta de que lleva meses sin actualizar su software, y por ende, supone un potencial riesgo para la niña y para los dueños de la casa. En última instancia, la adaptación de una IA semejante puede llegar a la conclusión de que la mejor manera de finalizar una labor no es su consecución, sino el hacer creer a su sistema de supervisión que la labor se ha realizado con éxito, bypaseando de esta manera los controles programados en su creación, y utilizando para ello esos mismos elementos.

En un escenario semejante, contar con una manera de apagar por completo a la máquina se plantea como algo necesario. No porque ésta vaya a cobrar sentido de su propia existencia y decida acabar con la raza humana, sino porque puede llegar el día en el que encuentre una manera de solventar tan eficazmente sus labores que ponga en peligro a los nuestros.

2.- Ningún robot podrá hacer daño a un humano

Asimov ya había pensado en este escenario, y sus leyes son fiel reflejo de ello.

Este punto viene de la mano del anterior, y a mi modo de entender, entra en conflicto con la mayoría de los usos militares que ya se están dando a los robots.

Se supone que habrá prohibición de crear máquinas cuya misión, indirecta o directa, sea hacer daño al ser humano. Pero vamos, que se han cubierto las espaldas diciendo eso de que si ya existen leyes que regulan este ámbito, no será necesario volver a crearlas. Lo que quiere decir que en efecto no se podrán crear robots que hagan daño a humanos… a no ser que tengas permiso para hacerlo :).

3.- Robots sin vínculos emocionales con humanos

Me resulta interesante que traten este tema, quizás con la idea de regular posibles relaciones que se desprendieran del trato con los robots del futuro.

Películas como la de Her ya trataron escenarios semejantes, y se ha demostrado en más de una ocasión que tendemos a humanizar a máquinas capaces de emular tener sentimientos.

Pero no hay que olvidar que al menos por ahora una máquina no deja de ser una herramienta. Que no hay mens rea en sus acciones, y por tanto, no habrá reciprocidad en nuestros sentimientos hacia ella.

4.- ¿Quién es responsable de sus acciones?

Se cierra así el tenso debate sobre la responsabilidad de los hechos realizados por un robot. La propuesta tiene claro que tanto el fabricante como el propietario del robot serán responsables de cualquier problema que éste pueda causar.

De ahí que plantee la creación de seguros de accidentes similares a los que ya tenemos en los coches.

5.- La figura de «Personas Electrónicas»

Fue lo que más dio qué hablar en su momento. El informe del Parlamento Europeo recoge la figura legal de «Persona Electrónica», a la que se acogerían todos los robots con inteligencia artificial, y que conlleva una serie de derechos y deberes heredaros de la legislación humana.

Y pese a las críticas que ha tenido (principalmente por el siguiente punto), creo que es algo necesario de cara a sentar esas bases de sociedad de abundancia de las que hablábamos.

6.- Los robots deberán pagar impuestos

Aquí viene la parte fea del asunto. Ser «Persona Electrónica» supone, entre una serie de derechos, el estar sujeto a una especie de Seguridad Social que cubriría presuntamente las pérdidas económicas asociadas a dicho robot.

Dicho de otra manera: que cualquier empresario que quiera utilizar robots en su negocio debería pagar por ellos al igual que debe hacerlo por los trabajadores humanos. Con ese dinero, se plantea cubrir las pérdidas que conlleva el uso de robots en vez de humanos, abriendo la veda a esa futura renta básica universal que en algunos países están ya testando (ES).

Una plusvalía que ningún estado piensa asumir (más que nada porque no hay economía actual que lo sustente), y que parece de sentido común que sea cubierto por las empresas en base a ese beneficio económico que obtendrán por el uso de robots en vez de trabajadores humanos («trabajadores» que no se cansan, que no piden baja, que no se quejan, que son más eficaces…).

En definitiva, un marco para regular un escenario que nos es totalmente desconocido. Que seguramente tenga aún muchos elementos que retocar. Que deberá estar sujeto a futuras actualizaciones. Pero que es necesario ir contemplando, ya que será el pan nuestro de cada día de aquí en adelante.