La mayoría de buscadores actuales devuelven enlaces a webs basados en la aparición de las palabras buscadas en las mismas, y según el nivel de “interés objetivo” que esa web tiene respecto a otras (posicionamiento). Esto quiere decir que si buscamos “cine Madrid“, analiza estas dos palabras por separado, entiendiendo el espacio que tienen entre las dos como separación entre una cadena de caracteres y otra, y devuelve todas las coincidencias que tenga en el registro de sus escaneos anteriores.


Pero esta forma de analizar la información no es ni de asomo cercana al procesamiento humano, basado en patrones y conocimiento previo, y por tanto suele ocurrir que a la hora de la verdad, sino damos justo en el clavo con las palabras elegidas, nos liemos a pinchar en todos los primeros enlaces bucando el que de verdad satisfaga nuestro interés.

Más aún, ocurre continuamente que a la hora de buscar información sobre un tema, tenemos como base unos datos relacionados, y no precisos del mismo (imaginemos por ejemplo que buscamos el nombre de un actor que sabemos que estuvo la semana pasada por nuestra ciudad promocionando una firma de ropa, de la que tampoco nos acordamos el nombre).

Es por ello que grandes empresas tecnológicas están dedicando un buen porcentaje de inversión en crear un modelo más humano para acercar de la mejor forma posible el potencial de las ingentes bases de datos actuales al cliente.

Ejemplo de estos prototipos de búsquedas semánticas tenemos el de Wolfram Alpha, el propio Siri de los dispositivos móviles de Apple, Google Now, o el Gráfico del conocimiento que se ha implantado esta semana en Google.

La idea detrás de todos estos proyectos no es otra que reproducir digitalmente la contextualización informativa, haciendo acopio de todo lo que las empresas que hay detrás conocen de nuestros gustos e intereses, y unir palabras entre sí por su relación, y no solo por su significado.

Que al buscar “cine Madrid“, no nos devuelva únicamente las webs que tienen como tags cine+Madrid, sino que entienda que nos referimos a los cines de Madrid, y nos muestre su programación y horarios directamente desde la interfaz (el objetivo de esta búsqueda seguramente sea ese). Que si buscamos todos los días abrimos una aplicación de transporte público, sepa mostrarnos a esa hora el resultado directamente, adelantándose a nuestra petición.


Aquí entran en juego varios factores, siendo el más controvertido el de la privacidad. Está claro que para llegar a una simbiosis perfecta, el dispositivo tiene que conocernos incluso mejor que nosotros mismos, y eso se traduce en guardar todo lo que hacemos con información circundante (GPS, hora, búsquedas relacionadas, periodicidad,…).

Y por supuesto, está el hecho de precisar de un mapa semántico sin precedentes, capaz de relacionar acciones y hechos indistintamente entre sí, y de forma sencilla, para que la consulta sea devuelta lo antes posible.

Una tecnología que Google está mejorando día tras día en su knowledge graph, con más de 570 millones de elementos (lugares, cosas, personas…) y más de 18 mil millones entre atributos y conexiones. Un verdadero cerebro semántico del conocimiento humano en internet, pasos por delante de Wikipedia o Wordreference, y del que tenéis bajo estas líneas una presentación bastante instructiva: