Presentaba a finales de la semana pasada INYESTA, un proyecto de investigación en el que he estado envuelto estos últimos cuatro meses junto con Pablo C. Cañizares y Frantzdy Louis, dirigido por los doctores Juan Luis Pavón Mestras (ES) y Francisco Garijo (ES) de la UCM, con el fin de encontrar una solución donde aplicar tecnología de sistemas multiagentes e inteligencia al mundo de las apuestas deportivas.
El resultado final lo podéis ver en el repositorio de GitHub (EN), aunque ya adelanto que está sin terminar. Sin embargo, sí nos ha permitido pelearnos con los entresijos de una arquitectura de software multiagente, en la que, una vez salvados los obstáculos iniciales, cuenta con un esqueleto lo suficientemente modular como para que la escalabilidad no sea un gran problema.
Utilizamos para ello el framework Ícaro (ES), desarrollado por uno de los docentes, y que permite de base la abstracción lógica para el trabajo con agentes, así como su tratamiento mediante reglas. La foto resultante es un sistema en el que cada pieza funciona por separado, esperando un input que la lance y devolviendo el output oportuno, de tal manera que modificar el código de uno de los agentes (por ejemplo, un recomendador de alto riesgo) no debería afectar al funcionamiento del resto del sistema.
Como problemas a los que nos hemos tenido que enfrentar, estaba el hecho de no contar con una estructura de información inicial en la que basarnos. El tener que usar técnicas de data mining para sustraer datos colgados en la red acabó por robar más tiempo del esperado.
Las apuestas deportivas tienen, como ya hablamos con anterioridad, un componente de aleatoriedad realmente alto (frente a la comparativa con sistemas bursátiles dependientes de un mercado fuertemente regulado), por lo que a priori la mejor opción para minimizar el fracaso es basarse en el colectivo de apuestas de diferentes portales.
El primer objetivo es claro: mejorar el porcentaje de acierto de un agente aleatorio (el que devuelve aleatoriamente gana el equipo anfitrión, pierde o empatan), y para ello aplicamos principios de análisis de big data, estableciendo diferentes niveles de responsabilidad a cada agente dependiendo de su tasa de éxito.
Pasado este trámite, la siguiente muralla a salvar es la del mejorar la tasa de acierto de los clientes de una casa de apuesta (muchos pocos son mejor que pocos muchos). La mejor manera de llevarlo a cabo es aplicar el mineo en aquellos resultados más probables (que son los que menor índice de ganancias arrojan) y compararlos con la respuesta de tu sistema.
De estos dos puntos deberíamos obtener un patrón de compromiso para cada agente, de cara a dotar de mayor o menor valor a cada uno, y por tanto, obtener una previsión final lo más acercada posible al resultado real.
Por supuesto, lo óptimo sería establecer además patrones en el mundo físico, como apunta SAP en el vídeo embebido a continuación, con su nueva tecnología de ‘análisis de Big Data’ para partidos de fútbol, que aúnan en un mismo servicio la sensorización de cada jugador, el conocimiento previo del historial de los dos equipos, la inteligencia aplicada a posibles tácticas y estrategias en el campo y monitorización en tiempo real.
Una verdadera pasada, que queda a años luz de lo que tres “mindundis” pueden hacer en cuatro meses.
INYESTA (EN) está liberado bajo licencia GNU GPL v3 (EN), y como ya os comenté, falta aún bastante desarrollo por hacer. No descartamos seguir con el proyecto e ir metiendo mejoras en las sucesivas revisiones, pero ante todo, estamos abiertos a posibles acuerdos de colaboración ya no únicamente como una propuesta de negocio, sino como para continuarlo como un servicio open source gestionado por la comunidad.
Si alguien está interesado, tiene en el menú de esta página el enlace al formulario de contacto de un servidor.
Edit a día 3 de Abril del 2015: Acabo de darme cuenta de que el vídeo ha sido borrado.
El jueves por la noche se derramó una copa de vino en una mesita. Afectó a un reloj despertador. El usuario del reloj era un proveedor de drogas, vulgarmente camello. El viernes no acudió a tiempo a su cita habitual. Esa noche los jugadores del ” Real Unocualquiera Futbol Club” consumieron droga, adulterada, de un proveedor distinto. Pasaron un mal Sábado y perdieron el partido del Domingo.
Encuéntrenme un sistema predictivo que pueda modelar cosas así y les diré que se puede pronosticar el futuro de los encuentros.
Ni que decir tiene, se puede. Pero lo que sabe uno, lo poco, lo saben todos. Hay un límite en la cantidad de info extraíble de los datos. Es la ilusión del método. Un análisis más complejo no es necesariamente más ” real”.
Totalmente de acuerdo. De hecho Manu, te recomiendo leer el artículo Los Límites de la Analítica en el que hablo precisamente de esto.
El Big Data es una herramienta increíble para sacar conocimiento de miles de datos, extrapolando sus relaciones y haciendo el trabajo lógico. Pero por mucha información que tengamos, en cualquier ámbito en el que el ser humano o cualquier otro animal esté presente hay que entender que existe un mayor o menor porcentaje de irracionalidad, y ahí el Big Data no puede llegar.
El ejemplo que pones es un error incontrolable en un sistema. Un aleteo de mariposa que difícilmente puede ser predicho, y mucho menos de forma lógica.
El deporte es una actividad de seres vivos, y por tanto, es muy pero que muy susceptible a la irracionalidad, por lo que estos sistemas podrían ofrecer un índice de acierto superior a la media, pero en cualquier caso, un índice de fracaso a considerar. De ahí que el papel del analista sea siendo vital para incluir en la ecuación esa chispa de irracionalidad tan necesaria para aumentar los positivos.
World of Warcraft es un juego multijugador que ha adquirido una base académica en el estudio de las ” curvas colaborativas” de jugadores. Dicho sea de paso, oh casualidad, “wow” es serendipia y expresaría, en cierto modo, el feliz descubrimiento de un diseño ( construcción con agentes de algún tipo) predictivo exitoso. Wah Sui Almberg desarrolló un sistema predictivo en bolsa basado en lógica de enjambre ( agentes y subagentes) partiendo de una analogía con la paradoja de Parrondo. Si se puede ampliar la memoria de evento logrando un hurst positivo, encontrando relaciones espúreas entre jornadas sin aparante contacto causal, puede ser que mediante la combinatoria de agentes de inteligencia se lograse tal faceta. Obvia decir que ” consciencia colectiva” es como ” ley universal”, pensamiento mágico. Pero como función de distribución de probabilidad, la gravitación de Newton funciona ( cambiando la potencia con la distancia). Suponemos por tanto que los sistemas operacionales predictivos ( multiagencias, sistemas expertos) construidos con representacionales de orden inferior ( redes neurales, perceptrones) – que en su momento fueron operacionales en sí mismos- puedan organizarse en taxones posicionables respecto de tipologías de escenarios aleatorios. Hemos llegado al inicio de la era del boom de la combinatoria probabilística. Hay que tomarse el concepto de decodificador de aleatoriedad en serio, a modo de máquina termodinámica sobre la que hacer ciencia con sucesivos perfeccionamientos de ésta. Por más que le joda a Bueno de Mesquita.
La idea de que el espacio euclído genera la gravedad mediante una distribución de probabilidad relativa a un gradiente energético puede inducirnos a pensar que el azar se pueda estudiar en el Futuro como el posicionamiento efectivo, serendipia, de sistemas inteligentes en un espacio escatológico.
La radioactividad como proceso aleatorio puro es un paradigma interesante. Rozema ha logrado encajonar al electrón en sus orbitales con precisión no esperable a juzgar por Heissemberg y su incertidumbre. Electronegatividad y tipo de enlace químico son paradigmas adecuados para una probabilidad de escenario que asimilase los partidos con balances energéticos entre sistemas con una cierta capacidad de modificación sobre sistemas análogos
energía es igual a masa por cuadrado de velocidad de la luz
energía es igual a gesto por circunstancias ( dramaturgia cuántica)
la estabilidad de un equipo ( tendencia a no cambiar su tendencia) se podría asimilar a un estado potencial de quietud, más o menos sólido, frente al otro equipo como generador de entropía, como incrementador de circunstancias posibles.
con todo, el salto cualitativo que debemos dar es increíblemente grande
Conforme evolucionamos cognitivamente y aprendemos el funcionamiento de nuestra propia conciencia, se hace patente este hecho Manu. La complejidad aumenta exponencialmente, y queda en nuestras manos el deber de especializarnos en alguna faceta del estudio con el fin de encontrar patrones que podamos emular artificialmente.
Nadie dijo que el camino fuese sencillo, pero ¿no está ahí la parte bonita de todo esto?
Sí, es cierto. No hay desarrollos interdisciplinares sin disciplina previa. Lo que me induce a pensar que el ancho de banda no rula lo bastante como para que el humane actual pueda hacer lo que le gustaría: crear. Justo lo que, en principio, no pueden hacer las máquinas.
Quizá ya exista una determinada combinación conceptual que pueda lograr derrotar al azar y no la vemos del mismo modo que se tardó siglos en percibir el movimiento REM ocular.
El azar necesita una qualia, una carne, una cromaticidad. Todavía estamos demasiado pegados a la cábala numérica de contadores de cartas de casinos de la era victoriana.
Pienso que la radioactividad es un paradigma interesante para abordar el tema de los aleteos de mariposa. Aunque sea un razonamiento silogista, lo imprevisible ha de responder a algún tipo de esquema.
La cultura es el verdadero móvil perpétuo. Es un tropismo, una aplicación autoinstalada del totalverso o conjunto de todas las versiones posibles. Nosotros jugamos el mismo papel que las gotas de agua o los remolinos de viento en las galernas y tornados: Piezas de un sistema autoorganizado. La naturaleza se transforma a sí misma a través de nosotros.
El azar es una materia prima a escala 1:1. Por eso es tan difícil de manejar. Estamos intentando levantarnos a nosotros mismos de suelo agarrándonos con las manos por el cuello: Maniobra imposible de una automaternación encaminada a lograr la utopía de la inmortalidad biológica previo un control brutal del mismo escenario del que formamos parte.
Nuestros sueños ayudan a la Naturaleza a generar nuevas versiones de sí mismas, estratos de Artificialeza. Redes de teorías, aplicaciones y relaciones inter-.
A cada estrato hay diseños y teorías quiméricos y entelequiales que se desgajan en exceso del marco más actual disponible.
Si en la época de Ramsés II, antigüo Egipto, alguien hubiese querido imaginar el Youtube, no habría habido problemas. Salvo que se trataría de una imaginación muy compuesta de gran cantidad de quimeras previas ( máquinas inteligentes, redes de máquinas inteligentes, máquinas de imagen, tipología social diferente a la de la época faraónica…)
La dificultad de la prognosis radica en no disponer de un entorno interteórico y de un ” parking” de maquinarias adecuadas para tener un referente conceptual. En un ejemplo más directo, Hedy Lamarr sentó las bases codificativas del bluetooh con la ayuda de un piano y pensando en comunicaciones submarinas ( guerra) pero su sistema no tenía posibilidades con la electrónica de la época
En el futuro las máquinas usaran la robótica como una epistemología naturalizada e investigarán, compartiendo info en lingodroid, sobre ontologías reutilizables en dominios restringidos
Creo que el azar se dominará mediante la lógica subsumida en capa oculta de redes de máquinas usando imágenes asociadas a modo de sistema neural del cerebro humano
jeroglíficos
Es muy interesante ese razonamiento Manu. Actualmente intentamos emular la inteligencia atacando al resultado y no al medio. Como bien señalas, quizás el futuro de la misma sea el procesado “inteligente” de imágenes, algo que a priori quizás se acerca más a la manera en que nosotros trabajamos.
La imagen ofrece muchas más garantías que la algoritmia en cuanto esta es mucho más rica en información. Y aquí encontramos uno de los grandes hándicap de la inteligencia artificial, ya que al igual que en su momento le pasó a Hedy Lamarr, la tecnología todavía no está preparada para afrontar procesos conceptuales de una manera abstracta.
Me preocupa un aspecto: Si lo más inteligente es atacar la esperanza matemática sobre la base de pensar en términos de cantidades pequeñas de ganancias con probabilidades altas y muchos ciclos de inversión, en vez de la proeza de una gran cantidad con probabilidad pequeñísima, la posibilidad de que una función de utilidad sea económicamente rentable en un mercado especulativo depende de una adecuada función de ocultación frente a la arbitrariedad social. Ya no sólo el caso del cierre de cuentas de las bookies. Los mismos nóbeles de la ecuación de black scholes recurrieron a diversificar los brokers para que el arbitraje con el esquema de la fórmula de cohetes no diese el cante ( incluso hoy en dia hay quien acusa a LONG TERM CAPITAL de soliviantar el mercado, en vez de reconocer la valía de complejizarlo). Así que, de algún modo, se establece un modelo predador-presa que transfiere la dificultad natural de la prognosis al escenario artificial de unos mercados en donde el menudeo es factible, pero la presión social convierte rápidamente las estrategias en demasiado conocidas o incluso censuradas.
La fórmula de Kelly, por otro lado, no nació para las apuestas deportivas. Con lo que hay un campo fecundo en el tema de la prognosis de la física a los mercados y, en retorno, de los mercados a la física.
La idea de una función de ocultación como necesidad añadida me produce cierta evocación. Quizá pudiera ser un modo de direccionamiento con capacidad para generar tipologías de nuevos mercados basados en simulaciones ficcionadas ( donde hay acuerdo, hay sustancia)
Es muy interesante el debate intelectual que aquí se hace pero si nos vamos a el titulo hablamos de simular apuestas o juegos con datos finitos de variables infinitas y quizá con simples regresiones en datos para el juego presente podrías tener entre 60 a 75% de aciertos lo que para la matemáticas seria muy por encima del 50% pero para la avaricia humana no y tendríamos que crear un modelo mas y mas exacto algo que de verdad no existe ni puede existir algunos programas pueden acertar en un 95% mientras que nos centramos en menos juegos pero otros días apenas en un 10% podría llamarse suerte pero si nos olvidamos de media y moda y nos centramos en los datos asimétricos en beneficios de apuestas cruzadas tendríamos un inmenso porcentaje… si no nos gusta estos numero podemos probar con surebest 😀