Vuelvo a escribir en ETC by VOZ.COM, la revista de Empresa, Tecnología y Comunicación, en su edición de invierno.
Esta vez, en referencia a una posible salida al dilema evolutivo de las inteligencias artificiales: Que ni son neutrales ni tienen per sé que ofrecer mayores garantías que la gestión humana.
Mi tesis, que defiendo en la sección SecuriTIC de esta revista, y disponible para su lectura en PDF (ES/página 52-53), es que resulta necesario permitir que terceros puedan auditar dichos sistemas y cerciorarnos que se cumplen una serie de requisitos básicos para que podamos depositar la confianza en ellos, sin dependencias del libre albedrío (e interés) de una u otra organización.
Dejo por aquí el artículo, adobado de paso con unos cuantos enlaces.
Vivir en tiempos de inteligencias artificiales
Si alguien nos hubiera dicho hace un par de décadas que el mayor medio de comunicación no sería un periódico, sino una red social, o que la mayor compañía de transporte privado apenas iba a tener vehículos a su nombre, seguramente lo hubiéramos tachado de loco.
Cosa que nos ocurre actualmente con todos aquellos que señalan que eso de conducir un coche será pronto una labor no de personas, sino de máquinas. Que quien decidirá si somos adecuados para un puesto de trabajo, o para el acceso a una hipoteca, no será de carne y hueso. Y que por supuesto, tampoco lo serán aquellos que hoy en día realizan tareas tan rutinarias como formar parte de una cadena de producción o pasar el código de barras por una caja registradora.
La tecnología, y en especial, los avances en inteligencia artificial, están ya destruyendo puestos de trabajo, y aunque también generan nuevos, no lo harán al mismo nivel.
Esto conlleva varias lecturas que pueden o no gustarte, pero que son un hecho:
La más obvia, que el sistema social que durante siglos ha dirigido el sentir de nuestra civilización, se está tambaleando. No por la aparición de una élite dirigente y una clase obrera trabajadora (véase la relación que en su día tuvieron los nobles y los vasallos de la Edad Media, o sus adinerados descendientes y los esclavos de algunos siglos posteriores), sino por el surgimiento de un sistema económico capaz de sustentarse por sí mismo, sin el sudor y sin la batuta del hombre. Un entorno difícil de conciliar con esa necesidad vital, implantada a fuego en nuestro cerebro, de encontrar nuestro puesto dentro de la sociedad.
Yo soy Pablo, analista de información. Pero quizás llegue el día en el que tenga que plantearme que quizás solo soy Pablo, sin ninguna otra coletilla. Cosa que presumiblemente nos acabará pasando a todos.
El otro punto que me parece interesante señalar, y en el que quería centrar el discurso de este artículo, es en los riesgos que conlleva el delegar el destino de cada vez más facetas de nuestras vidas en máquinas y no en seres humanos.
Máxime a sabiendas que la tendencia actual es la de dotar a estas inteligencias artificiales de una suerte de neutralidad mesiánica que realmente no tienen, como si hubieran sido creadas por una inteligencia ajena a las limitaciones, sesgos y prejuicios de nuestra sociedad.
Inteligencias artificiales que están aprendiendo el mundo que les rodea utilizando los ojos de aquellos que han desarrollado su código, y en base a un universo de datos lo más heterogéneo posible, sí, pero profundamente sesgado.
Habría casos para aburrir, y lamentablemente solo tengo dos páginas, por lo que recurriré a plantarte únicamente la semilla del interés, con la esperanza de que crezca y acabe empujándote a buscar más del asunto. Porque hablamos de sistemas de recomendación como el de Google, en el que se tiende a favorecer el posicionamiento de enlaces con opiniones consideradas políticamente incorrectas (los afroamericanos son racistas, Hitler no era tan mal como parece…) frente a otras aparentemente menos sesgadas, o coches autónomos que bajo la tesitura de tener que elegir ante un accidente causar el menor daño a su tripulante (un hombre) o al coche contrario (donde viaja una familia con niños pequeños), quizás se bloquee, o decida darle prioridad al menor número de bajas (lo que significa poner en peligro a su dueño), o justo lo contrario (lo que significa anteponer los intereses de su dueño a los de la sociedad).
El problema de fondo es que el ciudadano desconoce por completo el ámbito de actuación de estas inteligencias. Protegidas bajo patentes y licencias únicamente de explotación, estamos exponiéndonos cada vez más a sistemas que deben tomar decisiones en base a algo que solo la compañía conoce. Un algo que quizás en un momento dado reme a favor de nuestros intereses, pero que quizás en otro vaya a favor de los intereses propios de esa organización, aunque ello suponga ir directamente en contra de los nuestros.
Bajo este prisma, Tim O’Reil (EN), un conocido experto en IAs, propone una serie de reglas que cualquier sistema inteligente debería cumplir para llegar al mercado:
- Sus creadores han aclarado el resultado que buscan, y es posible para observadores externos verificar ese resultado.
- El éxito es medible.
- Los objetivos de los creadores del algoritmo están alineados con los objetivos de los consumidores.
- Permite el algoritmo llevar a sus creadores y usuarios a una mejor toma de decisiones a largo plazo.
Cuatro reglas que curiosamente no se cumplen en prácticamente ningún sistema actual. O al menos, nos es imposible saber si en efecto se están cumpliendo.
Lo que supone, de facto, un cambio radical en la forma en la que habría que diseñar los sistemas de inteligencia, habida cuenta de que deben permitir que terceros auditen el código y la respuesta que tendrían frente a múltiples situaciones.
Para llevarlo a cabo, además del compromiso de la industria, haría falta una legislación que se adecuara a dicha necesidad. Una óptica distinta que, recalco, no debería verse como nociva por parte de las compañías, sino justo lo contrario.
Porque ¿qué más quiere una organización que gozar de la confianza de su consumidor? Máxime a sabiendas que esta apertura podría ayudarles a localizar fallos antes de que se produjeran problemas reales. Máxime a sabiendas de que en juego ya no están solo unos cuantos millones de dólares, sino también vidas humanas. Y máxime a sabiendas que es el camino a seguir para esbozar el futuro de la nuestra civilización.
Un futuro muy prometedor, cercano a la promesa de una sociedad basada en la abundancia… siempre y cuando se tomen las medidas oportunas.
No está tan claro que las máquinas puedan sustituir a las personas. Veo repetido el mismo argumento que hace unos cuantos años, en mis años mozos, cuando los ordenadores y las máquinas iban a sustituir a las personas y se irían todos al paro. No solo no pasó eso si no que la mujer se incluyó en el mercado laboral y se dobló la población activa empleada.
Por otra parte, nuestro sistema capitalista no es sostenible por si solo, y eso es por la propia definición del mismo, hay que tener en cuenta que solo funciona si premia a uno y castiga al resto, por lo que un sistema que todo lo haga perfecto acabaría con el sistema capitalista, actualmente necesario para sostenerlo… Igual con el mundo planteado por la película Terminator es posible, pero no se yo….
Otro tema es, si mi trabajo lo hace una máquina… ¿a que me dedico yo? Pues si nos basamos en la historia de la humanidad, el modelo se ha repetido infinidad de veces, si no tengo nada que hacer y no tengo nada que perder, quitárselo al que lo tiene, siendo o él o yo. No me voy a extender en este punto, pero evitar que la gente no tenga nada que perder nos ha permitido tener el periodo más largo sin guerras de todo nuestra historia (que como cada guerra tiene elementos nuevos no presentes en las anteriores)
La aproximación a como deberían avanzar estas tecnologías es interesante, para que cada uno pueda asumir sus reponsabilidades, es imprescindible que estas estén perfectamente definidas, y si no para un buen funcionamiento, para pasar a la siguiente fase de la evolución. Algo que choca frontalmente con los modelos actuales.
Tendremos que esperar para ver que ocurre en el futuro, ya sea como «espectadores» o como partes implicadas de ello.
Me ha gustado mucho la frase con la que cierras el comentario. En efecto, hoy en día hay una clara dirección a la destrucción del trabajo por parte de la máquina. En todo caso, bien es verdad que es algo que seguramente ni tu ni yo ni nuestros hijos o nietos lleguen a ver completado.
Habrá quizás menos trabajo, y lo mismo nuestro papel no será tan determinante, pero seguiremos por aquí mucho tiempo. Ya no solo por necesidad, sino porque como bien comentas el sistema actual está diseñado, como es normal, por las limitaciones humanas, que son precisamente lo que hace que se sustente.
El tema es que no sabemos lo que va a pasar, solo especulamos, y muchas veces influenciados por lo que otros, antes que nosotros, han pensado en lo que pasaría si… Hay miles de variantes, el ejemplo de la mariposa y el tornado se aplica en este caso.
Yo insisto en que veo incompatible nuestro sistema capitalista con un mundo con «máquinas» que gestionan todo. Quizás si es posible que las máquinas lo gestionen todo, pero no que las personas no hagan nada. Yo veo más probable una guerra hombre máquina al estilo de terminator, pero claro, es mi visión y seguro que no tienen nada que ver con lo que pasará 😉
Es posible. Como bien sabes, el propio capitalismo tiene en su semilla el germen de la auto-destrucción. Se basa en la metáfora de los engranajes: debes trabajar más para ganar el dinero suficiente para comprar los productos cuya demanda debes cubrir trabajando más.
Si en esa ecuación sacas al humano, la cosa se rompe. ¿Qué valor tiene algo que no requiere «trabajo» por parte de su futuro consumidor? Habría que buscar un nuevo sistema que diera sentido al valor del trabajo de las máquinas, y eso es cambiar el statu quo que durante toda la historia de la civilización ha estado, de una u otra manera, presente.