¿Alguna vez se ha parado a pensar en el impacto que tienen los algoritmos en nuestro día a día?
Desde que nos levantamos hasta que nos acostamos somos esclavos, en mayor o menor medida, de las decisiones de estas piezas de código. Tanto a la hora de abrir nuestro correo, como a la hora de elegir el mejor camino para llegar al trabajo, como en la información que consumimos de los medios a los que estamos suscritos, de las actualizaciones de nuestros conocidos, como a la hora de hacer la compra, o a la hora de decidirnos por uno u otro producto, como en lo que vamos a hacer este fin de semana, o en las relaciones que mantenemos con nuestros círculos.
Cada vez con mayor presencia, la algoritmia dirige nuestras decisiones, y no debe resultarnos por tanto extraño que este escenario sea el epicentro del interés de las grandes corporaciones, de los gobiernos y demás organizaciones de alto poder en la escala social.
Facebook ha demostrado ser ya una gran herramienta para controlar el discurso. Incluso para dirigir el voto. Y esto mismo se extrapola al resto de servicios, siendo nuestra presencia digital el blanco de todas las miradas.
Esa misma presencia que puede ser crítica a la hora de encontrar una pareja, a la hora del sí o el no a la petición de una hipoteca, a la hora de calcular el precio que tendrá ese seguro que queremos contratar, a la hora de poder o no entrar en un país.
Nuestra vida es cada vez más dependiente del buen quehacer de estos algoritmos, y el problema radica en que en líneas generales estamos supeditados a desarrollos que no son abiertos, que no pueden ser auditados por la propia sociedad, y que dependen a su vez de intereses puramente económicos.
A este paradigma hay que unirle otro que todavía complica más las cosas: Incluso en un escenario abierto, la propia idiosincrasia de muchos de estos algoritmos hace que en esencia operen bajo un “mens rea” difícilmente auditable.
Quería hablar por tanto en este artículo de cómo las redes neuronales y la inteligencia profunda suponen un verdadero quebradero de cabeza a la hora de comprender y solucionar posibles tergiversaciones en su funcionamiento
Comencemos.
Algoritmos oscuros
Bajo esta terminología se englobarían todos aquellos desarrollos que operan bajo licencias privativas y que tienen un impacto en la sociedad relativamente alto.
El buscador de Google, utilizado en el 87% de las búsquedas globales, o el algoritmo de recomendación de Facebook o Twitter, usado por millones de personas para estar “actualizados”, serían algunos ejemplos de algoritmos oscuros, habida cuenta de que su receta, pese a ser profundamente crítica en la sociedad, no es de dominio público.
Por supuesto, se conocen a grosso modo algunas de las variables que conforman ese sistema de organización, como puede ser el interés mostrado por un enlace históricamente, nuestra afinidad para con quien lo ha publicado, los gustos e intereses que entiende el sistema que tenemos como usuarios, y así un largo etcétera. Pero el algoritmo es custodiado por las compañías que lo han desarrollado como principal activo para mantener su posición dominante sobre el resto.
Si acortamos el abanico, nos encontramos con escenarios aún más convulsos, como el que presentaba COMPAS, un algoritmo que sirve de “asesor” a los jueces de EEUU a la hora de implantar una u otra pena a aquellos declarados culpables.
Como ya hemos comentado en alguna que otra ocasión, las deficiencias de aquellos que lo han programado ha acabado por demostrar que COMPAS tiende a considerar más “de alto riesgo” a aquellos sujetos de raza negra frente a los culpables de raza blanca (EN).
Una consideración que de seguro no ha sido implantada de forma consciente en su desarrollo, pero que viene motivada precisamente por el proceso de aprendizaje imperfecto al que se ha sometido la máquina (que está a su vez basado en el proceso de aprendizaje humano).
En el paper Systematic Bias and Nontransparency in US Social Security Administration Forecasts (EN), publicado por varios investigadores de la Universidad de Harvard, aluden a esas mismas limitaciones que afectan en este caso al sistema social de la administración estadounidense, encargado de ofrecer las pensiones a los ciudadanos, y que en síntesis opera bajo criterios poco transparentes, cuando no directamente supuestos.
Existe una la falta de confianza, de auditoría, que pueda demostrar que en efecto los criterios considerados son los adecuados y contemplan de manera neutral el mayor abanico de problemáticas.
Pero lamentablemente hablamos de desarrollos contratados a empresas privadas bajo el modelo de servicio, y por ende, inaccesibles a su código fuente.
Las garantías difícilmente contrastables de un algoritmo inteligente
Y aunque quien escribe estas palabras es fiel defensor de la transparencia de datos, no hay que obviar que bajo este escenario encontramos otro problema mayor, que ha quedado reflejado recientemente en los accidentes que han tenido dos clientes de Tesla.
El pasado mes moría (ES) un hombreen Florida “al volante” de un Tesla Modelo S controlado por Autopilot, el sistema autónomo de este vehículo, y hace dos semanas ocurría otro accidente (ES) semejante en Pensilvania, afortunadamente sin víctimas mortales.
Por supuesto, el funcionamiento interno de Autopilot es secreto, y plantea un verdadero reto de cara a considerar quién ha sido el culpable de estos accidentes.
Ya no solo porque en efecto dependamos de los datos que la compañía quiera suministrar (son datos privados, y por tanto, puede aludir que hay conflicto de intereses a la hora de entregarlos a las autoridades), sino que además, al basarse Autopilot en un sistema de big data gestionado por un aprendizaje profundo, encontrar la causa y evitarla en un futuro se vuelve aún más complicado incluso para la compañía.
Estas redes neuronales se basan, como ya he explicado anteriormente, en crear sistemas de confianza categorizando diferentes elementos (esto es un camión, esto es un árbol, esto es un coche,…). Para ello hace uso de unos cálculos matemáticos muy complejos, y se reordena constantemente los resultados en base a los millones de impactos a los que el sistema está sometido constantemente.
Presuponiendo que en efecto en el primer accidente, el Model S entendiera el camión que venía en dirección contraria como un elemento que no presentaba obstáculo para el vehículo, encontrar la raíz de ese problema (en algún punto dentro de ese ingente árbol de conocimiento estará esa morfología de camión relacionada con variables no obstaculizables) y solucionarlo resulta, a priori, prácticamente imposible.
¿Qué características de la imagen dieron como resultado el error? ¿Se debió a factores externos (luz intensa de frente, poca visibilidad,…), a un sistema defectuoso (un sensor expuesto a demasiado ruido, quizás) o a elementos propios de la forma (un ángulo específico que hizo al sistema no reconocer el camión como un camión, un adorno que confundió al sistema de aprendizaje,…)?
Toyota está trabajando junto al MIT en encontrar una manera de que los coches autónomos (y en esencia, cualquier sistema inteligente) sean capaces de explicar los razonamientos que les han llevado a tomar una decisión específica (EN).
De nuevo, un problema que ejemplificaba recientemente en ese artículo-relato sobre Sarah, el robot de limpieza, que tantos problemas acabó causando.
Por ahí creo que deberían ir los tiros de aquí en adelante.
Si esperamos que estos sistemas presenten la suficiente confianza como para depositar en ellos nuestro bien más preciado (la vida), no solo basta con que en efecto sean desarrollos sujetos a la auditoría de terceros, sino que además sean capaces de encontrar un equilibrio entre aprendizaje profundo y rendición de cuentas al órgano competente, que espero sea un ente neutral (un regulador, por ejemplo), y no únicamente la compañía que vive de ello.
_
Si cree que el trabajo que hago por esta página le sirve para estar bien informado, sepa que puede invitarme a lo que vale un café (o incluso a lo que vale un café con churros) de tres maneras distintas :).