Los beneficios de un negocio gestionado por una IA “intuitiva”

tpu

Debo ser el único que ha visto muchísimo potencial en el último Google I/O.

Además de esa apuesta por las interfaces conversacionales, por desdibujar la idea que teníamos hasta ahora de los límites de un sistema operativo, hubo el primer día un anuncio que pasó desapercibido para la mayoría (servidor incluido), y que ha ido tomando forma a lo largo de estas últimas jornadas, sobre todo a raíz de analizar con calma y con perspectiva el discurso de la compañía.

Comentaba en ese primer artículo que una queja que he visto repetirse bastante en los medios ha sido la falta de presencia de hardware en el evento, y obviando que como dejaba claro el evento está dirigido a desarrolladores (no a medios ni a usuarios), y obviando que Google es una empresa de publicidad y servicios (al igual que Amazon o Facebook o Twitter, si sacan un producto físico es simplemente para atacar mercados que hasta ahora se les escapan), lo cierto es que sí presentaron uno que realmente da de qué hablar.

Me refiero a ese mismo cuya imagen acompaña el artículo: un chip diseñado dentro de la compañía, desarrollado a medida (se desconoce por ahora quién ha sido el encargado) y que ha sido bautizado como Tensor Processing Unit o TPU.

Este chip es, de hecho, el cerebro que hay detrás de un proyecto como TensorFlow (EN), un sistema open source de redes neuronales aún en investigación que saltaba a la luz hace unas semanas porque uno de sus aplicativos (AlphaGo), consiguió por primera vez en la historia vencer al campeón mundial de Go.

Sobre la proeza (y en particular, sobre las implicaciones de ello) ya hablé en su día con los miembros de la Comunidad. No estamos ante un juego como el Ajedrez, formado por varias tipologías de piezas y por tanto, con un componente estratégico claro. En Go todas las piezas tienen los mismos movimientos y el tablero es sensiblemente mayor, lo que incluye en la ecuación un alto grado de incertidumbre que hasta ahora había dado la victoria al humano.

Lo verdaderamente importante de esta presentación es la apuesta firme de una compañía en el valor que la inteligencia artificial y el machine learning podría llegar a dotar a su negocio.

No solo en lo esperable (optimización de recursos, contextualidad y liquidez), sino en otro punto que hasta ahora ha sido motivo de conflicto continuo con la legislación de buena parte de los mercados donde está presente.

El chip intuitivo, y la abstracción que ello conlleva

Sundar Pichai se refirió a él atendiendo a su faceta “intuitiva”, y esto es crítico para entender la importancia que tiene dentro del entramado de Google.

No hablamos de un SOC genérico, sino de un ASIC (circuito integrado de aplicación específica) diseñado específicamente para realizar operaciones de machine learning.

De hecho, una de las jugadas (la número 37) de AlphaGo contra el coreano Lee Sedol causó verdadera conmoción entre los entendidos:

Ver en Youtube (EN)

Como puede ver en el vídeo, se llega a presuponer que AlphaGo comete un error, pero es precisamente esa irracionalidad la que lleva a Lee Sedol a pasarse 15 minutos pensando una nueva estrategia, y que acaba por hacerle abandonar la partida después de 4 horas de juego.

¿Casualidad, o estrategia? ¿Podemos presuponer en AlphaGo una suerte de intuitividad? ¿No habíamos quedado que esto era exclusivo del ser humano?

Los propios ingenieros reconocen que les es imposible predecir qué decisión tomará y por qué (EN). Es, a efectos prácticos, un ente que razona, con sus limitaciones y decide por si mismo en base al aprendizaje de millones de partidas registradas en sus chips.

Y esto, amigo mío, es la gallina de oro para una compañía como Google.

Pongámonos a imaginar…

Imaginemos por un momento una empresa con una serie de servicios que se han posicionado por peso propio como referentes en el mercado.

Imaginemos entonces que esa empresa, la cual gestiona con su buscador, con sus sistemas operativos, con su suite de servicios digitales, el acceso, producción y consumo de la información, empieza a tener problemas en países que ven con malos ojos su dominio, en competidores que ven en sus movimientos unos intereses cada vez más alejados de la neutralidad de la que hacían gala en sus primeros años.

Imagínese entonces que esa compañía es investigada presuntamente por monopolio en el control del consumo de información, lo que les lleva una y otra vez a juicios donde tienen las de perder.

En ese escenario, ¿qué pasaría si el que toma las decisiones no es la compañía, sino su tecnología? Si el mens rea no viene dado por un equipo directivo, sino por una inteligencia artificial que decide en todo momento lo mejor y, supuestamente, lo más neutral posible.

¿Estaríamos entonces ante un precedente difícil de tratar a nivel legal?

Como ya vimos anteriormente, ¿quién tiene la culpa de las acciones realizadas por un software no condicionado (teóricamente) a reglas humanas? ¿Podemos culpar a una compañía de posición dominante si quien gestiona sus acciones no es la propia compañía, sino un producto “sin alma”?

En ese mismo escenario es en el que nos encontramos. Con una Google que hace tiempo decidió que todos los datos que maneja de nosotros no sean accesibles por sus propios trabajadores, sino únicamente por los algoritmos que nos segmentan e identifican.

¿El siguiente paso? Separar la toma de decisión a una suerte de IA “intuitiva”, delegando en el aprendizaje profundo, en las redes neuronales, y en estos TPU, la lógica de negocio. Con TensorFlow como primer acercamiento, con unos chips de fabricación propia especialmente diseñados para el trabajo que van a realizar, y poco a poco cada vez más presente dentro de cada uno de sus servicios.

Por eficiencia, por optimización de recursos, pero además, por la compleja panorámica que los libera de ser carne de legislaciones menos permisivas con el manejo de información.