etica trabajo inteligencia artificial

Era una tarde fría de febrero en Nueva York (EE. UU.), cuando el informático Leon Campbell se sentó en su oficina, preparó un pódcast sobre videojuegos y abrió una plataforma de software en su ordenador portátil. Durante un par de horas, se dedicó a hacer clic en las esquinas de los vehículos que aparecían en imágenes para que el software creara recuadros de texto a su alrededor.


Así comienza la pieza publicada recientemente por Kate Kaye para TechnologyReview (ES) en la que hablan de la dudosa ética que hay detrás de los trabajos que dan sentido a lo que hemos venido estos últimos años llamando Inteligencia Artificial.

Esa disciplina dentro de la computación que ni de lejos es nueva (ya por los años 50 se dieron sus primeros avances), pero que ha encontrado la excusa perfecta para volver a “revolucionar” el mundo con el machine learning.

¿Y qué es eso? Pues de puertas hacia afuera es como una caja negra en la que a una máquina le metes unos inputs (datos) y salen unos outputs (valor) en base a un esquema que previamente los ingenieros han programado, y que poco a poco la máquina acaba “comprendiendo”.

De puertas hacia dentro, eso sí, la magia de la “comprensión” se rompe, y lo que tenemos es a otra máquina más haciendo cálculos en un entorno muy pero que muy limitado.

Es justo ahí donde el corolario social se pierde.

El ser humano, y en líneas digitales la amplia mayoría de cerebros animales son capaces de priorizar análisis de datos de una manera muy eficiente. Lo que hace que realmente a un golpe de vista ya entendamos dónde nos encontramos, quién es la persona que tenemos delante o a qué riesgo o peligro estamos expuestos.

Para una máquina, sin embargo, hacer ese proceso de priorización le resulta profundamente difícil. Los ordenadores son muy buenos haciendo cálculos, de tal manera que ante una instantánea intentarán analizar absolutamente todo lo que aparece en la misma, y luego categorizarlo uno a uno, para ya más tarde decidir qué es importante (un rostro, un camión que viene justo hacia nosotros…) y tomar la acción oportuna.


Y ahí está el problema. Que para que la máquina aprenda, es necesario darle los datos mascaditos.

Que la inteligencia artificial de nuestros días no es magia, sino más bien una receta más que ha encontrado su filón de negocio en la increíble revolución de diseño, potencia y miniaturización del hardware.

En la más pura fuerza bruta, no en la inteligencia propiamente dicha.

¿Quién está detrás de la máquina?

Volviendo a la pieza antes mencionada, el medio saca a relucir la precariedad en la que por norma general están expuestos todos aquellos trabajadores cuya principal función es dotar de “inteligencia” a la máquina.

Y no hablo de los ingenieros y analistas, sino de la mano de obra que se dedica sistemáticamente a categorizar una a una las imágenes, vídeos y textos para que esos algoritmos pseudo-inteligentes sean capaces de sacarles valor a los datos:

Al identificar imágenes de coches, Campbell y otros como él generan una gran cantidad de datos para entrenar los algoritmos como los de los vehículos autónomos.  Campbell, que tiene 24 años y es autista, lo considera un trabajo bastante monótono. Suele consistir en “dibujar recuadros en sitios similares y reajustarlos para que se mantengan alrededor del objeto cuando salen un poco fuera del marco”. Sin embargo, está contento de tener este trabajo. El joven cuenta: “Me ayuda a prepararme para futuros emprendimientos que quiero perseguir”, y añade que le gustaría convertirse en programador o diseñador de juegos.

Y entra en juego el factor económico:


Campbell es un miembro relativamente privilegiado de ese grupo laboral. Trabaja 28 horas a la semana para Daivergent, una plataforma de trabajo online diseñada para ayudar a las personas autistas a obtener una experiencia laboral útil y prepararse para una carrera. Gana entre 10 euros y 18 euros por hora

[…] A diferencia de él, la mayoría de las personas que etiquetan datos no trabajan en las oficinas de Manhattan, sino desde sus hogares en países como India, Kenia, Malasia y Filipinas. Se conectan a las plataformas online para anotar diferencias entre cebollas verdes y tallos de apio o entre los tipos de gafas de sol (la forma de ojo de gato y de aviador). 

[…] La mayoría de ellos son trabajadores con salarios bajos, con un empleo inseguro y sin oportunidad de avanzar en su carrera.

El artículo se centra más adelante en algunos movimientos “de impacto”, que intentan trasladar las métricas empresariales habituales en el sector (básicamente se trabaja a volumen) por otras más éticas, que tienen que ver con la felicidad del trabajador y el dar oportunidades a colectivos en riesgo de exclusión profesional, como es el caso de los autistas.

Sin embargo, el tema me sirve para hacer hincapié en toda esa nueva oleada de alarmismo que hemos estado viviendo últimamente con supuestas escuchas de nuestros mensajes en altavoces inteligentes, servicios de mensajería y hasta vía el micrófono de nuestros smartphones.

Los humanos siguen siendo la parte “inteligente” de los algoritmos

Que se nos grabe a fuego esto.

Noticias como esa en la que cientos de empleados están transcribiendo nuestras conversaciones vía Facebook Messenger (EN), o que todo lo que decimos a un altavoz de Google o Alexa queda registrado, es el pan nuestro de cada día por la sencilla razón de que los algoritmos son incapaces de comprender la inmensa complejidad de un lenguaje humano hablado, con todos los matices, contextuales, gestuales y de acento, que utilizamos sin ser conscientes en nuestro día a día.


Que para que esa aplicación te pueda meter un filtro que hace que te salgan orejas de gato en tiendo real, es necesario el trabajo poco cualificado de muchísimos “Campbell” que, en jornada completa, se dedican de forma monótona a visualizar fotografías de usuarios y etiquetar adecuadamente dónde están los ojos, dónde la nariz y dónde las orejas.

Y esto, de nuevo, no significa que estas empresas “nos estén expiando”.

A Campbell, como al resto de trabajadores de este nuevo mercado, les importa una mierda hablando mal y pronto tus conversaciones con amigos y familiares y tus selfies. Ellos están delante de su ordenador con la aplicación abierta de su empresa, que recibe indistintamente de diferentes fuentes (muchas veces se trabaja mediante subcontrata a una empresa de big data) y sin mayor información que la estrictamente necesaria el contenido. Lo categorizan en apenas unos segundos y le dan a enviar, lo que hace que les llegue el siguiente contenido.

Un trabajo profundamente aburrido, abocado en el futuro a desparecer conforme esos algoritmos ya tengan el volumen necesario de datos convenientemente segmentados como para empezar a sacar pequeñas conjeturas, y precisar cada vez menos de esa segmentación inicial.

Que aquí lo preocupante no es “el abuso de tu privacidad”, sino, bajo mi humilde opinión, la precariedad de un modelo de negocio que está hasta cierto punto engañando a estos nuevos trabajadores.

Y lo digo precisamente por esas aspiraciones del pobre Campbell de prosperar profesionalmente por haberse dedicado unos meses/años a realizar una misma acción sistemáticamente.

Para ser diseñador de videojuegos, y en definitiva para emprender, que es lo que al parecer quiere el chico, bien haría en dejar hoy mismo ese trabajo (si se lo puede permitir económicamente, claro) y ponerse a CREAR cosas él mismo.

Un trabajo de este estilo no le abre las puertas al mercado tecnológico a nadie, sencilla y llanamente porque no deja de ser una extrapolación de todos esos trabajos absurdos y añejos que no aportan más que la solución temporal a una problemática que tiene los días contados.

Es triste, pero es lo que hay.

De cara al usuario podemos estar tranquilos, que los “Campbell” del mundo no nos están espiando. Y de cara a estos jóvenes (y no tan jóvenes), una alerta de que el camino que han decidido tomar puede darles algo de sustento económico en el presente, pero es hambre para el día de mañana.

Al menos mientras esas campañas “de impacto” sean la excepción en el sector.