En un momento crucial de crisis globales, X (antes Twitter) relaja sus políticas contra el discurso violento

Foto de Alexander Shatov en Unsplash. Con licencia Unsplash.
El 25 de octubre de 2023, la plataforma social X, antes conocida como Twitter, hizo cambios en sus Reglas Comunitarias globales. Según el Archivo de Gobernabilidad de la Plataforma*, un depósito de datos que rastrea automáticamente los cambios de políticas en 18 plataformas, X ha diluido considerablemente su política contra el discurso violento. En 2023, el discurso violento se define en X (antes Twitter) como amenazas violentas y deseos de daños.
En general, estos cambios significan que X reduce significativamente el alcance de sus disposiciones sobre discurso violento y también las consecuencias que se aplicarán cuando se detecte tal discurso. X parece estar indicando a sus usuarios que las sanciones por publicar contenido violento abarcarán a partir de ahora un ámbito más reducido de expresión, y que las propias sanciones serán menos severas.
Estos cambios suceden cuando X ha interpuesto una demanda contra el Centro para Contrarrestar el Odio Digital (CCDH), organización sin ánimo de lucro que lucha contra el discurso de odio y la desinformación, y lo acusa de hacer afirmaciones falsas. Como informa Reuters, la denuncia fue causada por un informe publicado en julio de 2023 por varios medios que utilizaron investigaciones del CCDH, en las que se afirmaban que el discurso de odio hacia minorías ha aumentado en la plataforma desde que Elon Musk compró la empresa en octubre de 2022. Recientemente, The Guardian también señaló que la Unión Europea, en aplicación de su Ley de Servicios Digitales, ha censurado a X por permitir «supuesta desinformación sobre el ataque de Hamás a Israel» en la plataforma, mientras que 7amleh —Centro Árabe para el Avance de los Medios Sociales— ha documentado el aumento de la discriminación, el racismo, la apología del delito y la desinformación en X.
Estos son algunos cambios que ha implementado X:
De una política de cero tolerancia a simplemente reducir la visibilidad
Antes, las Directrices Comunitarias de X decían:
X is a place where people can express themselves, learn about what’s happening, and debate global issues. However, healthy conversations can’t thrive when violent speech is used to deliver a message. As a result, we have a zero tolerance policy towards violent speech in order to ensure the safety of our users and prevent the normalization of violent actions. [emphasis added]
X es un lugar donde la gente se puede expresar, enterarse de lo que pasa y debatir temas globales. No obstante, una conversación saludable no puede prosperar cuando se usa un lenguaje violento para difundir un mensaje. Como resultado, tenemos una política de tolerancia cero ante el discurso violento con el fin de asegurar la seguridad de nuestros usuarios y evitar la normalización de acciones violentas. [énfasis añadido]
Ahora dice:
X is a place where people can express themselves, learn about what’s happening, and debate global issues. However, healthy conversations can’t thrive when violent speech is used to deliver a message. As a result, we may remove or reduce the visibility of violent speech in order to ensure the safety of our users and prevent the normalization of violent actions. [emphasis added]
X es un lugar donde la gente se puede expresar, enterarse de lo que pasa y debatir temas globales. No obstante, una conversación saludable no puede prosperar cuando se usa un lenguaje violento para difundir un mensaje. Como resultado, podríamos eliminar o reducir la visibilidad del lenguaje violento con el fin de asegurar la seguridad de nuestros usuarios y evitar la normalización de acciones violentas. [énfasis añadido]
El cambio de «tolerancia cero» a «podríamos eliminar o reducir la visibilidad» se ilustra aún más en las nuevas Directrices Comunitarias.
De suspender cuentas en «la mayoría de los casos» a solo en «algunos casos»
Antes, las sanciones de X eran severas para la mayoría de violaciones de sus políticas:
in most cases, we will immediately and permanently suspend any account that violates this policy. For less severe violations, we may instead temporarily lock you out of your account before you can Post again. [emphasis added]
en la mayor parte de los casos, suspenderemos de forma inmediata y permanente cualquier cuenta que viole estas políticas. Para violaciones menos severas, podríamos bloquear temporalmente tu cuenta hasta que puedas publicar de nuevo. [énfasis añadido]
La nueva versión se ha suavizado para la mayoría de infracciones:
in certain cases, we will immediately and permanently suspend any account that violates this policy. However, for most violations, we may instead temporarily lock you out of your account before you can Post again. [emphasis added]
en algunos casos, suspenderemos de forma inmediata y permanente cualquier cuenta que infrinja estas políticas. No obstante, para la mayor parte de las violaciones, podríamos bloquear temporalmente tu cuenta hasta que puedas publicar de nuevo. [énfasis añadido]
De «suspender firmemente» a «quizás suspender» la cuenta
A lo largo de todas la Directrices Comunitarias de X también se afirma que el contenido violento, en casos raros, se podría hacer menos visible, pero que las violaciones continuas de las políticas tras recibir una advertencia podrían resultar en que una cuenta sea «suspendida permanentemente». La versión anterior de esta política decía que definitivamente las cuentas «serían permanentemente suspendidas».
De evaluar el contexto a no evaluar el contexto
La empresa también ha reformulado su definición de qué contenido está exento de su política sobre discurso violento, declarando que «También permitiremos algunos casos de figuras retóricas, sátiras o expresiones artísticas cuando el contexto exprese un punto de vista y no instigue violencia o daños factibles», lo que representa una descripción más precisa del contenido exento. La política previa decía «Nos aseguraremos de evaluar y entender el contexto de la conversación antes de emprender acciones».
Hacia fines de octubre, la red social Facebook de Meta también cambió sus políticas sobre contenido violento, sádico e imaginario, aunque en cualquier caso, ha sido para restringirlo aún más.
En este momento, la Comisión Europea investiga si Meta, X y otras grandes plataformas (YouTube, TikTok) cumplen con la Ley de Servicios Digitales. La Comisión Europea ha solicitado a X, Meta y TikTok que justifiquen cómo han reducido la difusión de contenido ilegal y desinformación sobre el conflicto israelo-palestino.
La Ley de Servicios Digitales, que entró en vigor en noviembre de 2022, obliga a todas las grandes plataformas que operen en la Unión Europea a atenuar riesgos sociales como el discurso «ilegal y nocivo». Actualmente hay 17 plataformas de gran tamaño designadas con al menos 45 millones de usuarios al mes. No obstante, al mismo tiempo, algunas organizaciones europeas de la sociedad civil han expresado su preocupación sobre el uso de la Ley de Servicios Digitales como instrumento para presionar a las plataformas para que eliminen contenido rápidamente en épocas de crisis, lo que potencialmente violaría la libertad de expresión y socavaría los derechos humanos.
* Platform Governance Archive (PGA) es un repositorio de datos y plataforma que recaba y organiza políticas de las principales redes sociales desde una perspectiva a largo plazo, mantenida y gestionada por Platform Governance, Media and Technology Lab y el Centro para la Investigación de Medios, Información y Comunicación (ZeMKI) de la Universidad de Bremen, Alemania.
Este articulo es de GV Advox, un proyecto de Global Voices con su propio sitio web, en pro de la defensa de la libertad de expresion y contra la censura en internet. · Todos los articulos