El editor más productivo de la Wikipedia: un robot

Al hilo del tema que traté justo antes de irme de vacaciones, se conocía estos días el caso de Sverker Johansson (EN), un sueco de 53 años editor de la Wikipedia y que cuenta en su haber con cerca de 2,7 millones de artículos, por lo general relacionados con información técnica de animales.

Conceptual keyboard

Se calcula que en sus mejores días, es capaz de actualizar 10.000 páginas, una proeza muy lejana incluso para un equipo relativamente alto de profesionales. Bajo este nombre, por tanto, se oculta un bot, desarrollado por este profesor de universidad, y que tiene como fin engrandecer la información volcada en la Wikipedia.

La noticia ha corrido como la espuma en buena parte de medios tecnológicos, y bajo mi humilde opinión en la mayoría han obviado el verdadero interés de la misma.

Como bien señala Johansson, y dejábamos claro en el artículo que publiqué justo antes de irme de vacaciones, el contar historias está aún muy lejano para una máquina. No así tanto el recopilar información de manera estructurada, bajo un lenguaje hasta cierto punto humano, y basándose en plantillas predefinidas (como es el caso de la Wikipedia). Lo que nos encontraremos entonces en un artículo escrito por el bot de Johansson es información en bruto procesada. Una suerte de enciclopedia abierta capaz de minear datos de miles de fuentes y establecer un sistema de prioridades que le permite separar el grano de la paja, construyendo con él una descripción lógica de todos los aspectos biológicos del animal.

No hay rastro de humanidad en esa información. Ni prentende desplazar la figura del editor humano, como apuntan algunos periódicos. De hecho su verdadero potencial está en crear una base sólida y bien documentada desde donde el humano pueda construir su historia. Partir de los datos, con una estructura más o menos cercana a nuestra forma de comunicación, y que sea el editor quien le de esa pizca de humanidad que aún hoy esperamos, incluso en un sistema informativo que intenta ser objetivo como es la Wikipedia.

Los robots vuelven a aparecer en escena, y no para quitar trabajo, sino para automatizar la fase de análisis y curación de datos. El humano por tanto no debería sentirse desplazado, sino agradecido de que parte de ese trabajo que tan mal se nos da (no somos lógicos ni aunque queramos) lo realice una máquina, delegando la supervisión en nosotros, que somos a fin de cuentas los consumidores y aportamos el valor de la subjetividad.

Ahí es donde sí veo potencial para la robótica. En encargarse de los trabajos duros, repetitivos y que requieran grandes dosis de procesamiento objetivo. Que por encima seguiremos nosotros (o al menos deberíamos seguir), humanizando el producto final.

 

Imagen de ArtemSam, Conceptual Keyboard (EN) cedida por Depositphotos.com.