Dos noticias recientes me lleva a escribir el guión de este podcast.

  • Por un lado, la caída en desgracia del que en su día fue uno de los medios de comunicación tecnológica más importantes de Occidente, CNET, debido al uso masivo de la IA para «abaratar costes».
  • Y por otro, el empecinamiento que tienen los políticos en generar discursos alternativos mediante contenido generado por inteligencia artificial, poniendo foco en el último escándalo de Donald Trump.

Dos ejemplos más de cómo una mala gestión de herramientas basadas en Inteligencia Artificial puede suponer, de facto, una pérdida de la reputación tanto personal como profesional.

Y todo adobado con las recomendaciones que, desde esta santa casa, me gustaría que tuvieras en cuenta a la hora de aprovecharte de los beneficios de la IA… sin caer en su trampa.

¡Empecemos!

IA crisis reputacional

El impacto de las inteligencias artificiales en el sector creativo

Ya lo adelantábamos en su día, cuando empezaron a llegar las primeras herramientas de generación de textos e imágenes asistidas mediante inteligencia artificial: La IA iba a quitar muchos puestos de trabajo.

Fíjate que no hablamos ya de que ese operario, con o sin cualificación técnica, sea menos útil para la industria ya que la propia máquina que hasta ahora él gestionaba se auto-gestiona de forma más eficiente.

Hablamos de que aquellos perfiles cualificados intelectualmente, aquellos que usamos el cerebro como principal músculo para realizar un trabajo al que se le asume un componente creativo más que considerable, estamos en el centro de la mira.

Artículo en PabloYglesias.com

Exactamente todos aquellos puestos que, al menos desde el punto de vista de la cadena de valor, no aportaban más que mano de obra productiva.

  • Si tu trabajo es ser un diseñador o fotógrafo de contenido de stock, lo tienes muy crudo.
  • Si tu trabajo es crear contenido genérico para una web o para redes sociales a partir de notas de prensa, noticias u otro contenido que te pasan desde arriba, lo tienes muy crudo.

La IA ha entrado en el sector de la creación de contenido como un elefante en una cacharrería, dando unos outputs que para el grueso de negocios, cuyo pilar fundamental es la cantidad, y no la calidad, es más que suficiente.

Y claro, una inteligencia artificial va a ser siempre más rápida que un humano.

Y es infinitamente más barata.

Y tampoco se pone de baja.

Así pues, en su día, ya adelantábamos que uno de los sectores donde más íbamos a empezar a verla era en la generación de fake news o noticias falsas.

Debido a su indudable y periódica mejora de la calidad, ya estamos llegando a un punto en el que no resulta nada sencillo identificar qué contenido ha sido generado por IA, y cuál es fruto de la mano de un profesional.

Es más, ya conté por estos lares que desde CyberBrainers llevamos años usando sistemas de inteligencia artificial para dar soporte a nuestros clientes reputacionales.

Claro está, en nuestro caso no generando fake news, sino facilitándoles la transición a una presencia digital saneada a perfiles que por su trabajo (directivos, por ejemplo) o sus convicciones, no quieren exponerse más de la cuenta públicamente.

Y que pese a ello, son conscientes de la necesidad de tener unos perfiles activos que los posicionen como referentes del sector.

Reputación política en tiempos de IA

Así pues, mercados como el político, sediento como está este siempre de aglutinar mayor porcentaje de votos a toda costa, y con los recursos económicos que tiene (pagados, en la mayoría de casos, por todos nosotros, por cierto), rápidamente se subieron al carro.

El populismo vive gracias a la generación de respuestas fáciles a problemas complejos. Gracias a instaurar ese doble-pensar que Orwell definía en su célebre obra 1984, en el grueso del discurso social.

Y Donald Trump, que ni de lejos es el primero en exprimir al máximo la máquina de la desinformación, pero sí ha sido el último en aprovecharse de ella mediante IA, es buen ejemplo de ello.

Por todos es sabido que el expresidente de EEUU no es que sea muy querido por colectivos «minoritarios» como pueden ser los latinos, y sobre todo los afroamericanos.

No debería sorprenderle a nadie, habida cuenta de que buena parte de su campaña, la que le llevó a la presidencia en su día, y la que defiende actualmente, se basa en defender que «América es para los americanos».

Como si existiera algún pedigrí para un país que, recordemos, fue creado hace poco más de doscientos años por inmigrantes (muchos de ellos, por cierto, esclavos africanos).

Como si los mexicanos, y el resto de latinoamericanos, no fueran también «americanos»…

Sea como fuere, si en algo es bueno Donald Trump es decir una cosa, y luego hacer otra.

Que cuando se trata de conseguir votos, no le importa rodearse de esos ciudadanos de segunda.

Aunque sea, eso sí, mediante inteligencia artificial.

Escucha:

Los partidarios de Trump atacan a los votantes negros con imágenes falsas de IA

Los partidarios de Donald Trump han estado creando y compartiendo imágenes falsas de votantes negros generadas por IA para alentar a los afroamericanos a votar por los republicanos.

Reportaje en BBC (EN)
trump frake new

Estas últimas semanas han aparecido en varios medios de desinformación (esto es, blogs y periódicos venidos a más que se dedican sistemáticamente a apoyar a uno u otro espectro político con supuestas noticias que son falsas o claramente tergiversadas) y grupos de simpatizantes en redes como Facebook de numerosas fotos en las que el multimillonario aparece dándose un baño de abrazos con afroamericanos.

En otra, sale posando junto a un grupo de chicos, también afroamericanos, sentados delante de la típica casa de un barrio humilde, llevando uno de ellos una gorra que, supuestamente, tiene la cuña en forma de T de la marca Donald Trump (y digo supuestamente porque al ser generada por IA, a poco que te fijes en ella, te das cuenta de que no queda del todo claro si es una T o qué demonios es).

Incluso llegó a publicarse otra en la que se ve a un afroamericano vestido por completo con el slogan «Make American Great Again» (o, de nuevo, algo que se le parece mucho, ya que a poco que te fijes te das cuenta de que no trae como tal eso, sino una serie de garabatos que se le parecen) dándole supuestamente un documento de intención de voto a otro afroamericano.

Uno además que debería ser sujeto de estudio mundial, ya que esconde un tercer brazo, y ninguna de las tres manos que tiene podríamos considerar «normativa».

trump fake news
trump fake news

Detrás de estos burdos intentos de acercar la figura del expresidente a este grupo, según la BBC, estarían perfiles como el de Mark Kaye, presentador de un programa de radio conservador en Florida, y que en las propias declaraciones al medio, asegura «No ser fotoperiodista, sino narrador de historias».

Que en política, todo vale.

A fin de cuentas, si los propios políticos pueden prometer y luego no cumplir, qué importa que esas imágenes «no sean del todo exactas», como aseguraba otro de los supuestos creadores de estas fake news.

Ya lo vimos en su día con el escándalo de Cambridge Analytica, esa empresa, supuestamente de análisis de mercados con fines únicamente académicos, que ofrecía sus servicios para manipular grupos sociales en Facebook, y que está detrás, precisamente, de campañas tan exitosas como la del Brexit o la propia campaña electoral que llevó a Donald Trump a la Casa Blanca, generando contenido que sabían a ciencia cierta (por el acceso con fines supuestamente académicos que tenían de los intereses de los usuarios) qué dolor tocar a cada grupo social para que este acabase votando donde interesaba que votase.

Ese doble-pensar de Orwell llevado no a la limitación de la lengua (si en un idioma no existe la palabra «no», no puedes definir lo contrario), sino mediante una red bien organizada y con acceso a tantísima información personal que permite perfilar de forma masiva, y a la vez altamente específica, las acciones a realizar para que un colectivo piense que está tomando sus propias decisiones, cuando realmente está siendo manipulado para que lo haga.

Es, de facto, el sueño húmedo de cualquier sistema populista.

Uno que, con el auge de las imágenes y vídeos creados por Inteligencia Artificial, y el todavía valor testimonial que le damos al contenido gráfico, estará cada vez más presentes en nuestras vidas.

(AB)uso de sistemas de IA por intereses de negocio

CNET, abreviatura de Computer Network, es un medio de comunicación anglosajón especializado en el sector tecnológico y nacido en 1992, que rápidamente fue considerado, por la calidad de su contenido, como todo un referente del sector.

Tanto es así que en 2008 fue adquirido por el grupo mediático CBS por la friolera de 1.750 millones de dólares.

Ahí es nada.

Sin embargo, tras el pinchazo de los medios digitales de estas últimas décadas, y la bajada de los ingresos generados por publicidad que muchos experimentamos, en 2020 volvería a cambiar de manos, esta vez por 500 millones de dólares, hacia una empresa de marketing y afiliación llamada Red Ventures.

Te cuento todo esto porque es crítico para entender lo ocurrido recientemente.

CNET nació en su día con una fuerte predisposición a cambiar la manera en la que, desde el periodismo, se acercaba lo noticiable del mundo tecnológico al grueso de la sociedad, y consiguió labrarse, por tanto, una voz propia que sedujo, a una cadena tan potente como es la CBS, a hacerse con la marca.

Con el pulmón financiero de tener a una multinacional de los medios con tanta experiencia como es el caso de CBS, solidificó la idea inicial, transformándose, de facto, en uno de los medios de comunicación especializados a los que algunos más admirábamos.

Sus reportajes, extensos y bien documentados, eran ejemplo a seguir incluso para aquellos que aporreamos teclas más por placer que por trabajo. Ya no hablemos del resto del sector periodístico especializado en cubrir tecnología.

Sin embargo, los números, como ha ocurrido con muchos otros medios eminentemente digitales, no acompañan, y en ese momento es donde surge Red Ventures.

Una compañía que no se acerca al mundo editorial desde la óptica del periodismo, sino desde la del marketing.

Si algo hace muy bien Red Ventures, es saber diseñar contenido hiper-optimizado para que se indexe en las búsquedas de Google, consiguiendo con ello un aumento del tráfico, y por ende, de la monetización de estas plataformas.

¿Qué ha ocurrido desde entonces?

Pues una paulatina bajada de la calidad del contenido, enfocando esfuerzos, como suele ocurrir en estos casos, en la cantidad, y no tanto en el valor de cada escrito.

Algo que se ha agravado ya hasta límites insospechados este último año, en el que el (AB)uso de algoritmos generativos para la redacción de noticias se había vuelto casi insultante.

¿El resultado?

Pues una paulatina caída en desgracia del medio, asociada por tanto, y seguramente, a una caída en ingresos que supondría, además, un efecto rebote, delegando cada vez más responsabilidades en IAs de creación de contenido.

Ergo, peor contenido, ergo menor tráfico…

Ya ves por dónde voy.

Tanto es así, que recientemente la Wikipedia ha decidido rebajar la calificación de viabilidad que asignaba a este medio hasta ya no considerarlo «confiable».

Escucha:

Wikipedia ya no considera a CNET como una fuente «generalmente confiable» después del escándalo de IA

«Es indignante que las decisiones de Red Ventures hayan socavado la calidad del trabajo realizado por los escritores, editores y productores de CNET».

Artículo en Futurism (EN)

La reputación de un medio de comunicación histórico en entredicho

El escándalo al que hace mención Futurism no es otro que el haberse demostrado sistemáticamente que esos contenidos generados por la IA y «revisados» por un editor del medio acababan publicando noticias con numerosos errores.

¿Y a qué se debían esos reiterados errores?

Pues a las llamadas «alucinaciones» de las inteligencias artificiales modernas. Un tema del cual ya hablamos en profundidad, y que surgen al considerar que estas IAs no han sido diseñadas para darnos la respuesta correcta a la pregunta que les hayamos hecho, sino a darnos una respuesta creíble (sea o no cierta), y que, por tanto, requieren de un trabajo de documentación extra por parte del editor que claramente no se estaba realizando.

¿El por qué?

Pues porque para Red Ventures, y por tanto, para el equipo de editores de CNET, las métricas que valoraban su trabajo no se basaban en criterios de calidad, sino de cantidad.

Esto es, cuántos artículos se podían publicar al día, cómo funcionaban esos artículos en Google News, qué tanto viral se hacían en redes sociales…

Si esperas que se mejore la calidad de un contenido, pero valoras el desempeño de tu equipo únicamente bajo métricas cuantitativas, se produce el llamado efecto Goodhart, en el que una métrica que se acaba transformando en un objetivo (de negocio o operativo, como es el caso) deja de ser una buena métrica.

Para un editor en CNET, lo importante (lo que le asegura una nómina mensual) es el ser capaz de producir tantos artículos al día. No que dichos artículos sean rigurosamente ciertos.

Y a ojos de Red Ventures, un artículo es valioso no cuando aporta valor, sino cuando se hace viral, y gracias a él, se puede redirigir el mayor número posible de potenciales leads hacia las páginas de los anunciantes.

El caso a algunos nos recuerda lo ocurrido hace apenas unos meses con otro gran medio de comunicación sectorial, Gizmodo, y en particular con lo ocurrido con su versión hispanohablante.

De la noche a la mañana, todo el equipo de redactores de Gizmodo en Español fue despedido, y su trabajo fue sustituido por una supuesta inteligencia artificial que traducía todo lo que se publicaba en la versión inglesa.

¿El resultado? Una serie de textos totalmente absurdos, sin sentido, que llevo a que la mayoría de los que seguíamos al medio dejásemos de hacerlo por completo.

De nuevo, el objetivo de los dueños de este medio no era ya generar valor con el contenido, sino exprimir al máximo la monetización del medio hasta que, como ya está ocurriendo, pase a ser incluso irrelevante en las búsquedas de Google.

Unos cuantos meses en los que los ingresos por publicidad seguían entrando sin tener que pagar nóminas de los trabajadores, alienando a los lectores fieles, pero manteniendo, al menos temporalmente, el tráfico que viene de buscadores.

Y algo parecido parece que está ocurriendo con CNET.

Lo que le interesa el medio es mantener altos los índices de indexación en las búsquedas, para captar la atención de los llamados paracaidistas (usuarios que «aterrizan» en tu página para consumir un contenido que previamente han buscado en Internet, y que probablemente no vuelvan a ella nunca), redirigiéndoles, de paso, hacia las páginas de los anunciantes mediante una serie de formatos publicitarios agresivos.

Se trata de la típica estrategia que siguen los profesionales del SEO para monetizar sus páginas webs, y que funciona… mientras consigan engañar a Google y otros buscadores con sus técnicas de SEO.

De nuevo, lo que prima es la cantidad, no la calidad, y por eso Red Ventures, como expertos en indexación SEO que son, no tienen todos los huevos puestos en una única plataforma (CNET), sino que diversifican entre varias decenas de páginas semejantes, algunas más grandes que otras, sabedores de que, de la noche a la mañana, un cambio en los algoritmos de Google, o una crisis reputacional como esta que están viviendo con uno de sus productos, lastrará los ingresos de esta vía, y deben tener entonces otras plataformas que tiren de la maquinaria de hacer billetes.

Cómo usar correctamente los sistemas de IA

Echas las presentaciones, no quería terminar sin una serie de recomendaciones para aquellos que, como un servidor, generamos habitualmente contenido digital.

Los sistemas de inteligencia artificial, bien usados, son una herramienta magnífica que nos permitirá ahorrar algo de tiempo en nuestro proceso creativo.

Como te decía, en CyberBrainers usamos la IA para generar la base del contenido que publicamos con muchos de nuestros clientes. Aunque tengo que decir que, al menos por el momento, sigo siendo reacio para usarla en mi propio contenido.

De nuevo ten en cuenta que este podcast, y lo que publico en redes y en mi blog o el de CyberBrainers lo hago sobre todo por placer. Y quitarme de golpe ese «enfrentarme a una página en blanco», pues no lo veo.

La cuestión, no obstante, es que hay que entender estas herramientas… como lo que son. Unas herramientas.

No un fin en sí mismas.

Por eso, el trabajo de la mayoría de mi equipo ha ido cambiando de la generación pura de contenido, a la supervisión del contenido generado por las IAs.

Que es absurdo plantearse que podemos usar tal cual (con un copia y pega) un texto o una estrategia que nos haya dado la IA de turno, ya no hablemos de una foto o un vídeo generado por la IA.

Nuestro trabajo como profesionales ya no es únicamente la creación del contenido, sino el saber cómo pedirle a la máquina que nos genere una buena base (la llamada ingeniería de prompts a la cual le he dedicado no pocas piezas por el blog), y luego, tomarse el tiempo necesario para revisar dicho contenido, reescribirlo y darle personalidad.

Esto, en efecto, supone un cambio de paradigma para todos estos perfiles creativos, y que se traduce, sí, en una mayor productividad… pero con un ahorro de tiempo muy limitado.

Por ahí deben ir los tiros en el sector.

Si antes eras diseñador o editor, igual ahora tu trabajo se parece más al de un supervisor de contenido.

Pero hay que saber supervisar.

Vas a tener que seguir diseñando y editando, y además, ahora vas a tener que aprender ya no solo a documentarte mejor, sino también a definir qué hace único tu trabajo (qué aporta valor) y qué puedes delegar en la máquina.

Si lo consigues, no te va a faltar trabajo.

Siempre vamos a seguir necesitando perfiles creativos que puedan redirigir a las IAs hacia lo que queramos.

Si no eres capaz de ello. Si tu trabajo se basa en materializar lo que un tercero te pide dándote unas directrices claras para hacerlo, entonces sí, tienes un problema.

La IA va a hacer lo mismo que tú, muchísimo más rápido y con un coste marginal.

Tú decides.

Y ahora, turno para ti:

  • ¿Conocías estos dos casos?
  • ¿Qué crees que deberíamos hacer para poder controlar el auge de ultrafalsificaciones usadas con fines propagandísticos, como es el caso de estas fotos generadas por los simpatizantes del partido republicano estadounidense?
  • ¿Qué futuro le espera a la industria de la generación del contenido con la llegada de las IAs, y sus usos, cuanto menos, perversos, que estamos empezando a ver llegar incluso a medios de comunicación considerados hasta ahora confiables?

Escríbeme tus respuestas en comentarios, y abramos debate.

Sobre el videopodcast enCLAVE DIGITAL

enCLAVE DIGITAL es el videopodcast de Pablo F. Iglesias, consultor de presencia digital y reputación online.

Si este contenido te sirve para estar bien informado sobre la actualidad en materia de negocios digitales, reputación y tecnología, te agradecería que le dieras a suscribirte en mi canal de Youtube o en la plataforma de podcasting desde donde me escuchas, le des a Me Gusta, me dejes un comentario o reseña y lo compartas con aquellos a los que les pueda interesar.

¡Seguimos!

Si utilizas otra plataforma de podcasting, busca «enCLAVE DIGITAL« en la app para localizarlo, o visita la página del videopodcast, donde ofrezco enlaces directos a las principales plataformas actuales: