inyesta

Creo que ya he dicho en más de una ocasión que quien escribe estas palabras no es precisamente un gran forofo del deporte.


Al menos del consumo pasivo del mismo, porque a nivel de uno mismo, la mitad de mi vida la he pasado en un equipo de natación, y a diario hago de una u otra manera algún entreno, actualmente ya en seco.

El caso es que esto no quita que esté muy interesado por una parte de la forma de disfrutar del deporte: Hablo de todo el negocio que hay detrás de las apuestas deportivas (ES).

Tal es mi interés, que en 2014 estuve desarrollando junto con unos compañeros del máster en ingeniería de la Universidad Complutense de Madrid un sistema recomendador de apuestas deportivas.

Como expliqué en su día, estuvimos meses diseñando una herramienta que hacía uso de una arquitectura de software multiagente muy modular, de forma que si hubiéramos seguido con el proyecto (ya te digo que no fue el caso), contaba con una base muy pero que muy escalable.

La “chicha” de todo esto fue la investigación que hicimos al respecto, y sobre todo, el análisis que nos tocó trasladar a conceptos matemáticos de toda la probabilidad que hay a la hora de acertar cómo va a quedar el resultado de un partido de fútbol (por ser este el deporte que más interés mueve en este lado del mundo, y en el que por razones obvias nos centramos).

El objetivo inicial no era, per sé, crear un sistema recomendador. Esto, realmente, no entraña ningún reto. Sino mejorar el porcentaje de acierto de un agente aleatorio (el que devuelve aleatoriamente cualquier sistema si gana el equipo anfitrión, pierde o empatan), y para ello aplicamos principios de análisis de big data, estableciendo diferentes niveles de responsabilidad a cada agente dependiendo de su tasa de éxito.

Es curioso, pero hay que pensar que, por simplificar, en un sistema binario (el equipo A gana o pierde, sin contar con los empates) la realidad es que un sistema totalmente aleatorio (no basado en datos, sino simplemente en la más pura aleatoriedad) tiene una tasa de acierto del 50%. Para crear por tanto un sistema más “inteligente”, bastaba con crear uno en el que la tasa de acierto superase la probabilística natural de la propia aleatoriedad.


Pasado este trámite de simplificación hasta el absurdo (tan necesaria en la ciencia), la siguiente muralla a salvar es la de cómo mejorar la tasa de acierto de los clientes de una casa de apuesta, generalmente basada en la toma de decisión de muchos jugadores (muchos pocos son mejor que pocos muchos). Y la mejor manera que encontramos de llevarlo a cabo era aplicar el mineo de datos en aquellos resultados más probables (que son los que menor índice de ganancias arrojan) y compararlos con la respuesta de tu sistema.

Aquí ya entran conceptos de análisis estadístico. Lo que ahora viene a llamarse Big Data, y que no deja de ser una forma bonita de llamar a sistemas informáticos totalmente tontos que, a base de fallo y error continuo, acaban volviéndose inteligentes.

De estos dos puntos deberíamos obtener un patrón de compromiso para cada agente, de cara a dotar de mayor o menor valor a cada uno, y por tanto, obtener una previsión final lo más acercada posible al resultado real.

Que, de nuevo, puede parecer sorprendente, pero es que el 50% de tasa de acierto que nos da la más pura aleatoriedad… a veces era superior al porcentaje de acierto que arrojaban los análisis fundamentales de expertos y de las casas de apuestas… El que alguien sepa mucho sobre algo, e incluso el que muchos “alguien” opinen de forma interesada sobre algo, no significa que esa inteligencia (individual y/o colectiva) sea más eficiente. Otra de esas cosas que sueles asumir como imposible, y que luego, siempre y cuando vayas con la mentalidad adecuada, te acaba golpeando en la cara.

Por supuesto, lo óptimo hubiera sido establecer además patrones en el mundo físico. Me refiero a utilizar la sensorización de cada jugador (hay iniciativas como la de SAP que en aquel entonces ya lo estaban testando con algunos equipos), el conocimiento previo del historial de los dos equipos, la inteligencia aplicada a posibles tácticas y estrategias en el campo y monitorización en tiempo real, con el objetivo de basar las recomendaciones en datos tangibles (estado de cada jugador, histórico de partidos anteriores, condiciones del campo…) e intangibles (moral de cada jugador y equipo, análisis del “sentiment” de la audiencia en las gradas según sean de uno u otro equipo…), cruzarlos, y de ello sacar inteligencia.

Pero, por supuesto, para un proyecto puramente académico, que partía sin recursos, esto era poco más que un sueño húmedo.

Al final INYESTA se quedó ahí, en un inicio de startup que nunca llegó a monetizarse, y de la que aún queda el código subido a GitHub (EN), y protegido bajo licencia GNU GPL v3.


De esos proyectos chulos de los que apenas he hablado por estos lares, y que aunque sea por todo el mundo que me acabó abriendo, me parecen de lo más interesante que he hecho.

Newsletter nuevas tecnologias seguridad

Imagínate recibir en tu correo semanalmente historias como esta

Suscríbete ahora a “Las 7 de la Semana”, la newsletter sobre Nuevas Tecnologías y Seguridad de la Información. Cada lunes a las 7AM horario español un resumen con todo lo importante de estos últimos días.