A finales de la semana pasada se abría la caja de pandora: El 28 de Julio, el FLI, organismo formado por varias decenas de grandes representantes de la industria científica, alertaba sobre los riesgos de una Inteligencia Artificial aplicada a la guerra (EN).
No era la primera. De hecho, en Enero se presentó otra carta en la que se animaba a la comunidad científica a debatir sobre las implicaciones sociales de la Inteligencia Artificial (EN), de la cual hablamos en su momento en la Comunidad.
Es decir, dos artículos científicos que invitan a la reflexión, y que para nada tenían la finalidad de incitar al miedo o vaticinar un futuro catastrofista.
Pero claro, la información, al grueso de la sociedad, les va a llegar de mano de la prensa, muy dada a sacar titulares de clickbaiting, que tan bien funcionan para inflar el número de visitas, Me Gusta‘s y reshares.
Artículos sensacionalistas alertando del apocalipsis robótico, de la exterminación inminente de la raza humana en manos de Terminators de carne sintética y acero han poblado estos días las portadas de la mayoría de estos medios, aludiendo de paso al argumento de autoridad de algunos de los firmantes, entre los que destaca el mediático Stephen Hawking y Elon Musk.
Poniendo los puntos sobre las íes
En esta segunda carta, firmada por cerca de 2000 “expertos” del sector, se hace hincapié en dos puntos:
- Las máquinas no tienen consciencia, no tienen subjetividad, y por ende, serían capaces de llevar a cabo atrocidades: Absurdo y cierto a la vez. Una máquina solo cumple las órdenes dictadas por un sistema, que puede depender más o menos de lo que el programador haya desarrollado en su sistema de respuesta. Es decir, que o bien cumple órdenes dictadas por el ser humano, o bien llega a esa conclusión a partir de una lista de decisión creada por un ser humano. Que sí, que va a ser objetivo en la decisión, pero a fin de cuentas es como máximo tan peligroso esto como cualquier soldado “programado” para la guerra.
- Deberíamos prohibir el uso de IA en la guerra: De nuevo, algo absurdo, y que ellos mismos consideran improbable. Si en su momento no se pudo parar el auge de la guerra nuclear, considerando que esta tenía unas barreras de entrada muy muy altas (solo unos pocos países podían competir en esta carrera), el de la robótica es accesible prácticamente por cualquiera. Donde quizás sí esté el quid de la cuestión, como el FLI señala, es en endurecer las medidas de acceso a explosivos. Puesto que un robot con arma blanca es menos peligroso que uno con bombas.
Y un servidor añadiría de paso un tercero, que no está como tal contemplado en el informe, pero que no deja de estar rondando en todo este discurso.
¿Es más segura una guerra entre humanos que una guerra entre robots?
Mi respuesta es clara y concisa. Prefiero la segunda mil veces a la primera.
Primero, porque una guerra entre humanos, como se ha demostrado una y otra vez, genera una destrucción incontrolable. El ser humano es un ser subjetivo, que siente miedo, tensión y demás sentimientos que le hacen, involuntariamente, perder el control de la situación. Un arma en manos de una persona puede dispararse sin querer, puede errar el objetivo. Un arma en “manos” de un sistema es cuanto menos más eficiente.
Y segundo, porque una guerra autónoma acaba por transformarse en una guerra de recursos donde el humano no interfiere directamente. Dicho de otra manera, lo que se demostró desde la primera guerra mundial (por ser esta considerada la primera guerra moderna) es que al final quien ganaba era quien más dinero y capacidad de producción tenía.
La técnica no solo trajo mejoras, sino que incrementó exponencialmente nuestra capacidad de destrucción controlada y nuestra dependencia económica.
La caballería no tenía nada que hacer contra los tanques. Alemania no perdió la guerra por músculo humano, sino por asfixia financiera. Sin capacidad para producir más armamento tecnológico, los bandos aliados acabaron imponiéndose.
Y afortunadamente los recursos económicos se suelen acabar antes que los humanos, descontando el hecho de que son sin lugar a duda más prescindibles que los segundos.
Donde habría que centrarse, de hecho, es que estos sistemas de IA sean lo más seguros y fiables posibles. Si no, nos pasarán situaciones como las de ese rifle TrackingPoint, uno de los más avanzados del mundo, que ha demostrado ser hackeable mediante WIFI por un tercero, siendo capaz de redirigir la bala hasta varios metros de distancia de donde el soldado está apuntando, pudiendo acabar con un aliado, y de paso sin que el disparador tenga constancia de la situación hasta que dispara.
Ver en Youtube (EN)
Donde hay que centrar el debate es en las repercusiones de una IA ineficiente, muy lejos de esa supuesta singularidad a la que algunos señalan que llegaremos en apenas diez o veinte años. Estamos, para bien y para mal, muy muy lejos de ese momento en el que la máquina sea capaz de realizar un pensamiento tan complejo que nosotros (el ser humano) seamos incapaces de comprenderlo.
La realidad, como suele ocurrir, es bastante más terrenal. Unos robots que suelen realizar bastante bien un objetivo específico, pero que fallan extrepitósamente cuando el entorno y los estímulos externos no están contemplados de origen en su programación. Una IA que de inteligente tiene muy poco, pese a que pueda parecernos lo contrario.
Y no me malinterprete. Creo que nadie por aquí (mejor dicho, creo que a casi nadie) le interesa o le puede parecer necesario una guerra. La guerra no es más que una creación humana que solo conlleva desgracias.
El problema es que hoy en día no estamos preparados para solucionar conflictos sin recurrir a las armas. Seguimos siendo tan primitivos en este sentido como lo fueron nuestros antecesores. Por estúpido, inmoral e innecesario que sea.
Teniendo en cuenta que esta es la realidad, me quedaría más tranquilo si las guerras del futuro entre países consistieran en robots matando a robots, sin víctimas mortales. Atacando únicamente a los recursos económicos y logísticos de cada nación.
Por un panorama así un servidor firmaba al momento. Bienvenida sea la IA, sin con ello no hay más víctimas mortales. Si con ello quien resulta más perdedor (en una guerra TODOS pierden) sea a nivel económico, y no humano.
Más que recursos económicos, sería por materias primas, como posible causa de perder la guerra.
Por eso, en una hipotética guerra con robots como propones en la publicación, sería necesario abordar la posibilidad de tener capacidad de reciclaje, pues la consecución de materias primas puede ser factor secundario, si en un hipotético campo de batalla, existiese toneladas de desechos. Saludos
Estoy de acuerdo. Ten en cuenta que las materias primas, a fin de cuentas, no dejan de ser un recurso más. Y la capacidad de reciclar esas materias entraría dentro de la capacidad logística de esa nación, que al fin y al cabo se traduce en dinero.
Buen punto Javi. Saludos!
No entiendo de dónde concluyes que será una “guerra entre robots”. Los robots militares atacaran principalmente a humanos, como de hecho ya hacen. No hay ninguna razón para creer que los robots sólo atacaran a robots.
Hombre, presuponiendo que la robótica acabe imponiéndose como modelo de guerra (es más sustentable que el mantenimiento de un ejército humano), es de esperar que al final quien acabe saliendo al campo sea un robot y no un soldado.
Los soldados, a lo sumo, se quedarán a buen recaudo en un centro de operaciones sirviendo de soporte a la toma de decisión o cualquier otra función aledaña.
¿Que los robots atacarán objetivos estratégicos? Claro, pero es que quizás tenga más sentido atacar el núcleo del sistema (fábricas de producción armamentística) que objetivos humanos, habida cuenta que el humano no forma parte de esa cadena de producción que al final será la que decida el final de la guerra.
Bueno Pablo, creo que el tema de la guerra es un asunto de “los señores de la guerra” pero aventurándome en un campo que no comprendo mucho, diría que existen muchos tipos de guerra. Las guerras, digamos convencionales de las que se habla en el artículo y en el debate, utilizan avances tecnológicos para hacer la diferencia y lograr los objetivos que planteas. Seguramente será probable que se de un tipo de combate de unas máquinas que atacan y otras que defienden los objetivos destruyendo a las primeras. Si, seguramente en este tipo de combate se evitaría la muerte de humanos y claro que sería preferible. Pero en otro tipo de guerras, las que más vemos por doquier, muchas veces el objetivo es el terror, generar miedo, desplazar personas, eliminar “objetivos de alto valor”, donde lo importante es que se den muertes humanas y, en algunos casos, entre más mejor. Allí cabría la visión de aquella máquina aterradora que extermina seres humanos de manera implacable. Los drones modernos ya son vistos de esta forma por los ciudadanos y combatientes de lugares subdesarrollados donde se viven guerras generalizadas.
Para fortuna de todos, la verdadera IA, es más un sueño de algunos que una realidad. Apenas tenemos hoy una IA simulada que es capaz de tomar decisiones en determinadas circunstancias programadas de antemano. ¿Podremos llegar en el corto o mediano plazo a ese punto de disrupción en el que se de el llamado fenómeno de la singularidad? Creo como muchos que conllevaría muchos riesgos, sobre todo el hecho de que esta nos supere y termine por controlarnos, o peor, exterminándonos. Yo por mi parte, preferiría no llegar a ver tal cosa. En los últimos años se han producido muy buenas películas (y también otras tantas muy malas) que abordan el tema desde diferentes perspectivas: “Automata”, “Her”, “Trascender”, entre otras. Sin duda un tema apasionante así sea para la especulación.
Para finalizar, la guerra solo demuestra nuestra incapacidad para resolver conflictos de manera civilizada y deja ver lo “trogloditas” que continuamos siendo. La eventual IA en manos de semejante civilización bárbara solo puede generar dudas y temores.
Muy buen análisis Fernando.
Es cierto. Seguimos siendo tan prehistóricos como antaño en cuanto al uso de la fuerza. Y lamentablemente la guerra es el mejor ejemplo de ello.
Que en pleno siglo XXI se sigan acaeciendo guerras escusadas bajo ayuda humanitaria es un desperpento. Que la ONU no haga más que aceptar que X país ataque a otro por el recurso que sea, y que para colmo se atrevan a taparlo bajo el apoyo de un pueblo que se levanta en armas…
En fin, que como dices, estamos muy lejos de esa IA destructora y maquiavélica. De lo que si estamos es a las puertas de una IA que ayuda a la toma de decisiones o acompaña al soldado o arma de turno a ser más eficiente.
Y quiero pensar que eso, unido a la esperable evolución de la humanidad hacia algo más inteligente, una buena base para que esas guerras del futuro, si es que tiene que haberlas, sean cada vez menos nocivas.
¡Guerra mala, ser humano malo! Fuera bromas quisiera intentar nombrar el primero de los puntos sobre las íes que has descrito. La primera forma de dotar cierta inteligencia a los sintéticos utilizables en conflictos se podría denominar inteligencia delegada y la segunda inteligencia extrapolada. En ambos casos siempre estará la intención del ser que da esa inteligencia a los sintéticos. Lo ideal es que siga siendo así, ya que, si algún día, la inteligencia de la que se doten esos sintéticos se interese por su entorno de forma genuína (no puedo escribir egoista aquí) tendremos una nueva especie con la que compartir ese entorno. Solo entonces deberemos preocuparnos de los sintéticos, hasta ese momento solo debe preocuparnos como los utilizamos.
Siempre que pensamos en el holocausto cibernético acabamos describiendonos a nosotros mismos. Por cierto, ¿Alguien ha visto la película ‘Asesinos cibernéticos’? Es un pelín vieja pero ilustra muy bien un escenario post apocalíptico cibernético y tiene una estética cifi años 50 muy chula.
Saludos a todos.
Me la apunto Mikel. Buen aporte, y en efecto.
Lo que no me queda claro es que estemos en verdad tan cerca de esa singularidad necesaria para considerar a los “sintéticos” otra especie. hoy en día, está claro que no. Y dudo mucho que lleguemos a verlo en poco tiempo (si es que se llega).