Hace unos días, Elon Musk, en una respuesta a un usuario de X (la antigua Twitter), afirmó que la red de microblogging estaba valorando eliminar el botón de bloqueo.


Por supuesto, a tales declaraciones, miles de usuarios salieron llevándose las manos a la cabeza, por lo que parece ser la n-ésima locura del magnate.

Pero, ¿y si te dijera que, lo mismo, la idea de eliminar el botón de bloqueo en redes sociales no es tan descabellada?

¿Y si te dijera que incluso podría llegar a ser positiva de cara a combatir la toxicidad habitual de estas plataformas?

¡Empecemos!

Bloqueo en redes sociales: Sí o no

Como te decía, Elon Musk aseguraba recientemente que X está valorando eliminar la opción de bloquear usuarios de su plataforma:

Fue decir esto y rápidamente, como viene siendo habitual en la red de microblogging, miles de usuarios se le echaron encima tachando la idea de terrible.


Y vaya, que creo que a estas alturas nadie puede pensar que, después de haber criticado en múltiples ocasiones desde mis artículos los bandazos que ha estado dando Elon Musk desde que compró Twitter, quiera venir aquí a defenderlo porque sí.

Pero el diablo, como se suele decir, está en los detalles.

Me explico.

¿Para qué sirve bloquear?

La pregunta no es para nada baladí, y depende sobre todo de la plataforma en la que estemos.

Por ejemplo, hace ya unos meses expliqué en un artículo en mi blog cómo un servidor había empezado a utilizar más la opción de bloqueo de remitentes en el correo electrónico frente a la opción de marcar como SPAM.

¿La razón? Pues que esta segunda funciona bajo un sistema algorítmico, de manera que si muchos usuarios marcan como SPAM a un remitente, los algoritmos de la plataforma acabarán por marcarlo como SPAM, y entonces bloqueando sus envíos al resto de usuarios de la plataforma.

Sin embargo, la opción de bloqueo, bloquea (valga al redundancia) el contenido en local. No tenemos por tanto que esperar al conocimiento colectivo para que a nosotros no nos llegue a la bandeja de entrada ese contenido.


En este caso el botón de bloquear funciona a las mil maravillas.

Y sin embargo, en X y el resto de redes sociales, no. ¿por qué?

Muy sencillo.

Porque a diferencia de las plataformas de mensajería, las redes sociales meten en la ecuación una variable más: la sociabilidad.

Así, cuando bloqueamos a un usuario en una red social, lo que estamos haciendo es que ese usuario no pueda mencionarnos, y por tanto, a nosotros no nos llegue notificación alguna con dicha mención.

Pero el usuario puede ni tan siquiera importarle esto, ya que, y aquí viene lo importante, va a poder seguir insultándonos o troleándonos de cara al resto de la comunidad.

Simplemente, nosotros no lo veremos. Pero el resto de la audiencia, el resto de la sociedad, sí.


Es decir, que “gracias” al botón de bloqueo, dotamos al usuario de una falsa sensación de control reputacional (ya no ves ese contenido dañino), mientras que, en la práctica, el daño reputacional sigue siendo el mismo. Penalizamos así a la víctima, a la que se le censura parte de la realidad que ocurre a su alrededor, dejando totalmente libre al infractor, que puede seguir generando mierda, con la esperanza de que el ser consciente de que la persona objetivo de su bilis ya no verá lo que dice, acabe desistiendo.

Pero, recalco, es un parche que se retroalimenta negativamente él mismo.

No es una herramienta, por tanto, que sirva para mucho más que para ponerse unas gafas opacas. A poco que tengas una visibilidad mínima para que te salgan haters en Internet, cualquiera de los que lo hemos experimentado sabemos que por mucho que bloqueemos, no conseguimos cambiar nada.

Y esta situación de indefensión llega a límites insospechados en el caso de famosos y celebrities, es decir, perfiles con mucha más influencia que, por ejemplo, un servidor, y que ya no solo son víctimas de ataques reputacionales continuos, sino que además son objetivo de decenas o cientos de botnets que sistemáticamente generan contenido dañino, o al menos molesto, desde millones de cuentas falsas.

En esos casos, y te lo digo con total conocimiento ya que desde CyberBrainers gestionamos perfiles con muchísima influencia digital, ya te puedes pasar todo el día bloqueando cuentas, que al día siguiente saldrán cientos o miles más nuevas. La amplia mayoría falsas o robadas a terceros, que difunden en redes como X mentiras y falacias para desacreditar a nuestros clientes, y que están todas gestionadas mediante las mismas redes de bots.

¿Qué herramientas ofrecen las plataformas sociales para controlar la reputación de un perfil?

Y sí, es cierto que estas plataformas están poco a poco ofreciendo cada vez más herramientas para minimizar este daño.

Hablando nuevamente del caso de X, la red de Elon Musk ya ofrece desde hace tiempo a los usuarios verificados (hayan sido verificados por su audiencia, y desde hace unos meses, también si son verificados por estar pagando la suscripción) la opción de que sus tweets solo puedan ser comentados por perfiles a los que siguen.

Una estrategia que, por ejemplo, recomendamos hacer a algunos de nuestros clientes en la agencia es publicar siempre el contenido como restringido (que solo a los que sigues puedan responder), y a los pocos minutos cambiar el contenido a “En abierto”, por eso de que, solo con este gesto, ya evitan la amplia mayoría de bots automatizados que están sistemáticamente scrapeando su perfil, esperando a poner comentarios en un contenido que probablemente acabe siendo compartido por centenares o miles de usuarios.

Otra de las funcionalidades que la antigua Twitter implementó no hace mucho fue la de que solo puedas ver el contenido y las respuestas de otros perfiles verificados.

Y sí, son medidas que hasta cierto punto discriminan a la comunidad. Algo que queda aún más patente desde que el tener un perfil verificado ya no significa que seas alguien con al menos un mínimo de influencia digital, sino que hayas decidido pasar por caja.

Que estas herramientas le sirven a las plataformas sociales para limitar las funcionalidades del usuario que no paga (o, mejor dicho, paga con su tiempo usando la plataforma y el contenido que produce en ella), forzando a que algunos que no se lo habían planteado, acaben transformándose en usuarios de pago.

Pero esta misma discriminación sirve de barrera para minimizar, aunque sea algo, el impacto reputacional al que está expuesto un perfil público.

¿Qué deberían ofrecer?

Volviendo al tema del botón de bloqueo, y siendo conscientes de que no es que sea muy útil en un entorno de comunicación en abierto, queda preguntarnos, ¿qué se podría hacer para, de verdad, minimizar significativamente el daño que producen este tipo de comentarios?

Pues bien, si me preguntas a mi, la respuesta giraría en torno a la creación de un sistema de soporte a denuncias que de verdad funcionara:

  • Uno que contara con los recursos humanos suficientes como para que tú, o yo, denunciemos un contenido donde se nos menciona por considerarlo inapropiado, y que en cuestión de minutos, ya hubiera sido analizado por un experto con capacidad para eliminarlo o modificarlo.
  • Un sistema, de hecho, que fuera muy eficiente a la hora de bloquear sistemáticamente cualquier cuenta que se dedique única y exclusivamente a reproducir contenido semejante al del resto de cuentas gestionadas por una botnet.

Es decir, que estas plataformas, en vez de reducir plantilla de moderadores, la aumentasen drásticamente, y mejoraran significativamente sus sistemas de identificación de bots, entendiendo que hace ya años que dejaron de ser simplemente “portales” donde cualquiera de nosotros publica contenido, y que con sus sistemas de recomendación algorítmica y con su modelo de negocio basado en el consumo de aquello que entiende que el usuario quiere consumir, han pasado a ser medios de comunicación.

En ese caso, y solo cuando esto último se hubiera cumplido, sí le veo sentido quitar el botón de bloqueo.

Algo que, obviamente, no quieren oír hablar ni en pintura, por eso de que entonces todos caeríamos en la conclusión de que el culpable último de que ese contenido reputacional esté expuesto en la plataforma… es la propia plataforma, y por ende, debería estar obligada a gestionar de forma eficiente cualquier contenido que tenga fines maquiavélicos.

Lo que nos llevará, de paso, a un debate aún más complejo de afrontar: ¿Dónde ponemos los límites entre un contenido crítico y un contenido maquiavélico? ¿Dónde quedan entonces los límites entre el derecho al honor y el derecho a la libre expresión?

Como puedes ver, no resulta fácil emitir un único veredicto.

Y por eso, no me quería ir antes de preguntarte:

  • ¿Qué harías tú para evitar la proliferación de contenido dañino en redes sociales?
  • ¿Crees que X tiene de verdad interés en controlar este tipo de malos usos, o por el contrario, solo está moviendo ficha para nuevamente favorecer a las cuentas de pago frente a las gratuitas?

Déjame tus respuestas en comentarios, ¡y seguimos hablando!

Sobre el videopodcast enCLAVE DIGITAL

enCLAVE DIGITAL es el videopodcast de Pablo F. Iglesias, consultor de presencia digital y reputación online.

Si este contenido te sirve para estar bien informado sobre la actualidad en materia de negocios digitales, reputación y tecnología, te agradecería que le dieras a suscribirte en mi canal de Youtube o en la plataforma de podcasting desde donde me escuchas, le des a Me Gusta, me dejes un comentario o reseña y lo compartas con aquellos a los que les pueda interesar.

¡Seguimos!

Si utilizas otra plataforma de podcasting, busca enCLAVE DIGITAL en la app para localizarlo, o visita la página del videopodcast, donde ofrezco enlaces directos a las principales plataformas actuales: