marketing politico ia

Miriam P. Mañariño, reportera del Business Insider España, me escribía hace unos días para pasarme una serie de preguntas con el fin de preparar un reportaje para el medio sobre el aumento de campañas de marketing político basadas en la suplantación de voz mediante inteligencia artificial.


Por supuesto, respondí a todas sus preguntas, y con ello elaboró el artículo que acabaron por publicar en la revista (ES).

1. ¿Cómo puede afectar la generación de voz de la IA a los personajes políticos? Porque no solo hablamos de que la voz sea la misma, sino que el contenido también es factible de haber sido dicho, tomando el ejemplo de la entrevista, por Donald Trump. ¿Puede usarse como arma política? 

Mira Miriam, en 2018 publiqué mi primer libro de relatos cortos distópicos, y en él había unos cuantos relatos que giraban en torno al fin del valor testimonial, precisamente hablando de cómo era posible ya crear vídeos con ultrafalsificaciones, y poniendo de ejemplo, paradójicamente, un vídeo de un deep fake con la cara de Donald Trump.

Desde entonces estas tecnologías se han democratizado hasta el punto de que hoy en día, con un móvil de gama media, se puede llegar a crear ultrafalsificaciones relativamente decentes, sobre todo en audio.

Pues imagínate lo que ya se está haciendo cuando hay intereses geopolíticos y recursos casi ilimitados, como ocurre en el marketing político.

¿El mejor ejemplo? Lo estamos viviendo cada día en la guerra entre Rusia y Ucrania, con ambos bandos generando vídeos falsos para desmoralizar al enemigo, o ganar fuerzas de puerta hacia dentro. Y a menor nivel, se está ya utilizando para campañas de fraude tanto a empresas como a particulares.

Ya ni de los vídeos nos podemos fiar… y quiero pensar que esto nos lleve a un ecosistema informativo donde la fuente original cobre nuevamente importancia.

2. Hasta ahora las imágenes generadas por IA todavía no son perfectas y se puede identificar con relativa facilidad que no son reales, sin embargo, eso no pasa con la voz. No tenemos mecanismos para contrastar si una persona ha hecho determinadas declaraciones, solamente la propia palabra de la persona a la que le han imitado la voz. ¿En términos de márketing político, podemos temer que haya partidos que hagan guerrilla política con esta herramienta?

Si es que, como te decía, ya se está aprovechando como arma de propaganda digital en el conflicto ruso-ucraniano, y también tenemos constancia que regímenes dictatoriales como el de Venezuela (EN) están usándolo con fines partidistas y políticos.


¿Que si se usará para hacer guerra de guerrillas en política de países democráticos? Pues no lo dudo, sinceramente. Hace apenas un par de semanas El Mundo había decidido poner en portada una imagen fake (ES) para ilustrar una de sus noticias de política. No con fines de tergiversar la información, ojo (avisaban de ello en el pie de la imagen), pero la veda está abierta incluso en medios de comunicación que podemos considerar «serios».

Sobra decir que a poco que nos vayamos a medios partidistas y radicales, la cosa ya se desmadra.

Si llevamos años combatiendo las fake news con declaraciones sacadas de contexto, imagínate si ahora ni tan siquiera necesitamos esa declaración, o unir diferentes declaraciones para que parezca que el político de turno dice algo que no ha dicho realmente…

3. Ahora que vienen elecciones y la IA no está regulada aún, ¿sería una buena estrategia de marketing político usar la IA en forma irónica para descalificar o desacreditar al adversario político incluso si en el vídeo se avisase de que eso no es real y que está generada por una IA?

Es difícil predecir qué impacto reputacional podría tener una campaña así. Generaría sin lugar a dudas mucho revuelo, y es podría ser positivo o negativo.

  • Positivo si se ha diseñado con la suficiente cabeza como para que un porcentaje mayoritario de potenciales votantes lo toman como lo que es: una campaña irónica creada con gusto y, con suerte, capacidad de crítica propia.
  • Negativo si el otro lado del cuadrilátero es capaz de generar una bola de nieve que desacredite la ironía, o se haya intentado jugar con una suerte de incertidumbre que pueda llevar a algunos a pensar que el contenido es real, entrando entonces en conflicto con las reglas del juego político.

4. ¿Existen mecanismos para poder contrastar si lo que estamos escuchando es generado por IA?

Igual que hay herramientas para generar ultrafalsificaciones, hay herramientas que nos permiten identificarlas. Sin ir más lejos, OpenAI sacó su propia herramienta para identificar contenido generado mediante ChatGPT.

Aunque, siendo sinceros, funcionan «de aquella manera», intentando identificar patrones de errores que las IAs actuales suelen tener a la hora de crear contenido, sea en vídeo, en audio o en texto/imagen. Lo que da lugar tanto a falsos positivos como falsos negativos (ha llegado a marcar poesía de autores conocidos como creado por IA, y contenido que sí ha sido creado no marcado como tal).

Lo que sí tenemos son proyectos que pueden o no estar asistidos por IAs, pero que cuentan con equipo humano, y se encargan de desacreditar bulos acudiendo a las fuentes.


En CyberBrainers, de hecho, hemos colaborado en más de una ocasión realizando análisis de OSINT (análisis de fuentes abiertas) para intentar localizar la fuente original y contrastar por tanto tanto de dónde viene la campaña de desprestigio, como si está o no basada en contenido real.

5. ¿Podemos hablar de post-realidad con este uso de la IA?

No me cabe la menor duda.

Como decía al principio, el paradigma de testimonio, en vídeo y en audio, ha perdido ya su legitimidad.

Hace años un vídeo o un audio era difícilmente manipulable. Hoy en día es cada vez más sencillo realizarlo, sobre todo si la víctima tiene suficiente contenido en ese formato expuesto en internet y accesible por tanto por terceros (necesario para entrenar las herramientas de IA).

Y esto no ha hecho nada más que empezar.

Newsletter nuevas tecnologias seguridad

Imagínate recibir en tu correo semanalmente historias como esta

Suscríbete ahora a «Las 7 de la Semana», la newsletter sobre Nuevas Tecnologías y Seguridad de la Información. Cada lunes a las 7AM horario español un resumen con todo lo importante de estos últimos días.