Guerra autónoma: ¿es mejor que quien empuñe el arma sea el humano?

robots asesinos

A finales de la semana pasada se abría la caja de pandora: El 28 de Julio, el FLI, organismo formado por varias decenas de grandes representantes de la industria científica, alertaba sobre los riesgos de una Inteligencia Artificial aplicada a la guerra (EN).

No era la primera. De hecho, en Enero se presentó otra carta en la que se animaba a la comunidad científica a debatir sobre las implicaciones sociales de la Inteligencia Artificial (EN), de la cual hablamos en su momento en la Comunidad.

Es decir, dos artículos científicos que invitan a la reflexión, y que para nada tenían la finalidad de incitar al miedo o vaticinar un futuro catastrofista.

Pero claro, la información, al grueso de la sociedad, les va a llegar de mano de la prensa, muy dada a sacar titulares de clickbaiting, que tan bien funcionan para inflar el número de visitas, Me Gusta‘s y reshares.

Artículos sensacionalistas alertando del apocalipsis robótico, de la exterminación inminente de la raza humana en manos de Terminators de carne sintética y acero han poblado estos días las portadas de la mayoría de estos medios, aludiendo de paso al argumento de autoridad de algunos de los firmantes, entre los que destaca el mediático Stephen Hawking y Elon Musk.

Poniendo los puntos sobre las íes

En esta segunda carta, firmada por cerca de 2000 “expertos” del sector, se hace hincapié en dos puntos:

  1. Las máquinas no tienen consciencia, no tienen subjetividad, y por ende, serían capaces de llevar a cabo atrocidades: Absurdo y cierto a la vez. Una máquina solo cumple las órdenes dictadas por un sistema, que puede depender más o menos de lo que el programador haya desarrollado en su sistema de respuesta. Es decir, que o bien cumple órdenes dictadas por el ser humano, o bien llega a esa conclusión a partir de una lista de decisión creada por un ser humano. Que sí, que va a ser objetivo en la decisión, pero a fin de cuentas es como máximo tan peligroso esto como cualquier soldado “programado” para la guerra.
  2. Deberíamos prohibir el uso de IA en la guerra: De nuevo, algo absurdo, y que ellos mismos consideran improbable. Si en su momento no se pudo parar el auge de la guerra nuclear, considerando que esta tenía unas barreras de entrada muy muy altas (solo unos pocos países podían competir en esta carrera), el de la robótica es accesible prácticamente por cualquiera. Donde quizás sí esté el quid de la cuestión, como el FLI señala, es en endurecer las medidas de acceso a explosivos. Puesto que un robot con arma blanca es menos peligroso que uno con bombas.

Y un servidor añadiría de paso un tercero, que no está como tal contemplado en el informe, pero que no deja de estar rondando en todo este discurso.

¿Es más segura una guerra entre humanos que una guerra entre robots?

Mi respuesta es clara y concisa. Prefiero la segunda mil veces a la primera.

Primero, porque una guerra entre humanos, como se ha demostrado una y otra vez, genera una destrucción incontrolable. El ser humano es un ser subjetivo, que siente miedo, tensión y demás sentimientos que le hacen, involuntariamente, perder el control de la situación. Un arma en manos de una persona puede dispararse sin querer, puede errar el objetivo. Un arma en “manos” de un sistema es cuanto menos más eficiente.

Y segundo, porque una guerra autónoma acaba por transformarse en una guerra de recursos donde el humano no interfiere directamente. Dicho de otra manera, lo que se demostró desde la primera guerra mundial (por ser esta considerada la primera guerra moderna) es que al final quien ganaba era quien más dinero y capacidad de producción tenía.

La técnica no solo trajo mejoras, sino que incrementó exponencialmente nuestra capacidad de destrucción controlada y nuestra dependencia económica.

La caballería no tenía nada que hacer contra los tanques. Alemania no perdió la guerra por músculo humano, sino por asfixia financiera. Sin capacidad para producir más armamento tecnológico, los bandos aliados acabaron imponiéndose.

Y afortunadamente los recursos económicos se suelen acabar antes que los humanos, descontando el hecho de que son sin lugar a dudas más prescindibles que los segundos.

Donde habría que centrarse, de hecho, es que estos sistemas de IA sean lo más seguros y fiables posibles. Si no, nos pasarán situaciones como las de ese rifle TrackingPoint, uno de los más avanzados del mundo, que ha demostrado ser hackeable mediante WIFI por un tercero, siendo capaz de redirigir la bala hasta varios metros de distancia de donde el soldado está apuntando, pudiendo acabar con un aliado, y de paso sin que el disparador tenga constancia de la situación hasta que dispara.

Ver en Youtube (EN)

Donde hay que centrar el debate es en las repercusiones de una IA ineficiente, muy lejos de esa supuesta singularidad a la que algunos señalan que llegaremos en apenas diez o veinte años. Estamos, para bien y para mal, muy muy lejos de ese momento en el que la máquina sea capaz de realizar un pensamiento tan complejo que nosotros (el ser humano) seamos incapaces de comprenderlo.

La realidad, como suele ocurrir, es bastante más terrenal. Unos robots que suelen realizar bastante bien un objetivo específico, pero que fallan extrepitósamente cuando el entorno y los estímulos externos no están contemplados de origen en su programación. Una IA que de inteligente tiene muy poco, pese a que pueda parecernos lo contrario.

Y no me malinterprete. Creo que nadie por aquí (mejor dicho, creo que a casi nadie) le interesa o le puede parecer necesario una guerra. La guerra no es más que una creación humana que solo conlleva desgracias.

El problema es que a día de hoy no estamos preparados para solucionar conflictos sin recurrir a las armas. Seguimos siendo tan primitivos en este sentido como lo fueron nuestros antecesores. Por estúpido, inmoral e innecesario que sea.

Teniendo en cuenta que esta es la realidad, me quedaría más tranquilo si las guerras del futuro entre países consistieran en robots matando a robots, sin víctimas mortales. Atacando únicamente a los recursos económicos y logísticos de cada nación.

Por un panorama así un servidor firmaba al momento. Bienvenida sea la IA, sin con ello no hay más víctimas mortales. Si con ello quien resulta más perdedor (en una guerra TODOS pierden) sea a nivel económico, y no humano.