¿Ves todos los idiomas arriba? Traducimos las historias de Global Voices para que los medios ciudadanos del mundo estén disponibles para todos.

Entérate más sobre Traducciones Lingua  »

Muerte lenta de la expresión: Cómo las mayores empresas tecnológicas censuran en silencio la expresión crítica en Medio Oriente

Gráfico por Omar Momani para 7iber (CC BY-NC-ND 2.0).

Este artículo se publica como parte de una asociación editorial entre Global Voices y Ranking Digital Rights.

Después del atentado en Charlie Hebdo en enero de 2015, Mark Zuckerberg, cofundador y presidente de Facebook, publicó un mensaje de reflexión sobre religión, libertad de expresión y la línea editorial controversial de la revista.

“Hace unos años, un extremista en Pakistán peleó para que se me sentencie a muerte porque Facebook se rehusó a prohibir contenido sobre Mahoma que lo ofendió. Apoyamos esto ya que distintas voces –aunque a veces son ofensivas– pueden hacer del mundo un lugar mejor y más interesante”, escribió Zuckerberg en su página.

Ese mismo mes, Facebook aceptó restringir el acceso a una cantidad no especificada de páginas por “ofender al profeta Mahoma” en Turquía a pedido de las autoridades locales.

Turquía es famosa por la cantidad de pedidos que hace a empresas de internet para eliminar contenido que infringe las leyes locales. Sin embargo, no es el único Gobierno en el Medio Oriente que recurre a esa táctica para silenciar voces críticas.

Aunque varios Gobiernos de la región suelen realizar pedidos directos para eliminar contenido –además de la existente presión “suave” por otros medios– el fracaso de los gigantes tecnológicos en moderar el contenido en la región es un problema más grande y más complejo.

Abuso de mecanismos de denuncia

En toda la región, los mecanismos de denuncia de la plataforma de redes sociales se usan excesivamente a veces para silenciar a los críticos al Gobierno, grupos minoritarios o puntos de vista y formas de expresión considerados no adecuados con la mayoría de las creencias de la sociedad, la religión y la política.  

En 2016, Facebook suspendió varias páginas en árabe y grupos dedicados al ateísmo después de grandes campañas de denuncias.

Esto eliminó efectivamente uno de los pocos (y a veces, el único) espacios donde el ateísmo y otras minorías pueden unirse para compartir sus experiencias, y expresarse libremente sobre la religión. A lo largo de la región, el ateísmo sigue siendo tabú, que se puede pagar con hostigamiento, prisión y incluso la muerte.

“[El uso excesivo de las denuncias] es un problema significativo”, dice Jessica Anderson, gerente de proyectos en onlinecensorship.org, que documenta casos de eliminación de contenido por las plataformas de redes sociales, dijo a Global Voices.

“En el Medio Oriente como en otros lugares, hemos documentado casos de censura producto de las ‘campañas de denuncias’ , intento coordinado por muchos usuarios que denuncian la misma página o contenido”.

Las voces a favor del Gobierno usan estos mecanismos de denuncia en exceso. A comienzos de este año, Middle East Eye denunció que cerraron páginas o cuentas de distintos activistas políticos de Egipto o les cerraron sus transmisiones en vivo despúes que denuncias de “troles a favor del Gobierno”.

“Lo que hemos visto es que denunciar puede generar desequilibrios de poder existentes, empoderar a la mayoría para que ‘controle’ a la minoría”, dice Anderson. “Las consecuencias de este problema pueden ser serias: las comunidades que ya son marginadas y oprimidas pierden el acceso a los beneficios que brindan las redes sociales como un espacio para organizar, conectarse, y ser escuchadas”.

Imposibilidad de considerar los derechos del usuario, en contexto.

En mayo, Apple se unió a Facebook y Twitter, las plataformas más comunmente citadas en este rubro, cuando la tienda de iTunes se rehusó a publicar cinco canciones de la banda libanesa Al-Rahel Al-Kabir. Las canciones se burlaban del fundamentalismo religioso y la opresión política en la región.

Un representante de iTunes explicó que Qanawat, distribuidor de contenido local contratado por Apple para gestionar la tienda de la zona y cuya sede está en Dubái, eligió no publicar las canciones. Una fuente anónima le dijo a The Daily Star que iTunes no sabía de la decisión de Qanawat, tomada por “sensibilidades locales”. En respuesta a un pedido de la ONG libanesa de derechos humanos SMEX y la propia banda, iTunes publicó las canciones y se comprometió a trabajar con otro distribuidor.

Este caso muestra cómo las “sensibilidades locales” pueden interferir con las decisiones para publicar contenido y permanecer en línea en la región, y también muestra que las empresas necesitan tener la diligencia debida al tomar decisiones que afecten los derechos de la libertad de expresión de los usuarios.

Al hablar con Global Voices, Mohamad Najem, cofundador de SMEX señaló que Facebook y Twitter tienen sus oficinas regionales situadas en los Emiratos Árabes Unidos, que él describe como uno de los “países más represivos” en la región.

“Esta es una decisión de negocios que afectará el discurso libre de una manera negativa”, dijo. Además expresó preocupación por la elección de tener una oficina en un país como Emiratos Árabes Unidos, que en algunas ocasiones “puede llevar a aplicar normas sociales en el Golfo” en toda una región (árabe) que es “dinámica y diferente”.

Ubicación, ubicación, ubicación

Facebook y Twitter tienen oficinas en Emiratos Árabes Unidos con el fin de atender al Medio Oriente y Norte de África, región étnica, cultural y lingüísticamente diversa que presenta muchos puntos de vista políticos y experiencias. Cuando los Gobiernos opresores u otros grupos poderosos presionan a las empresas para que se respeten las “sensibilidades locales”, actúan como cómplices en callar esas expresiones de diversidad.

“Parece que las plataformas siguen los consejos de voces más fuertes y poderosas… en el Medio Oriente, no han podido resistirse a los fuertes intereses como Gobiernos”, sostiene Anderson.

Tomemos por ejemplo, la predisposición de Facebook para cumplir con los pedidos de censura del Gobierno turco. Durante años, la empresa estuvo involucrada en censurar críticas al Gobierno, a la religión, a Ataturk –el fundador de la república–, activistas kurdos, contenido LGBT y hasta una iniciativa antiracismo.

La complicidad de Facebook con estos pedidos parece estar fuertemente arraigada. Hablé con un activista turco hace dos años, y me comentó que cree que la plataforma “se estaba convirtiendo en un medio de comunicación a favor del Gobierno”. Hoy, la plataforma continúa siendo cómplice y restringe el acceso de más de 4500 contenidos dentro del país en 2017. Facebook no es transparente en el número e índices de pedidos que se le pide.

“El mayor defecto en cómo las plataformas tratan los pedidos de cierre es su falta de comprensión de los contextos políticos. Y aunque haya una idea de lo que está ocurriendo en el terreno, no estoy completamente segura, siempre hay diligencia debida”, sostuvo la escritora independiente Arzu Geybulla, que informa sobre Turquía y Azerbaiyán para Global Voices.

En las conferencias, representantes de Facebook se enfrentan diariamente a preguntas sobre campañas de denuncias masivas. Sostienen que múltiples denuncias de abuso de una sola publicación o página no automatiza el proceso para retirarlas. No obstante, ofrecen muy poca información concreta sobre cómo la empresa observa y responde a estas situaciones. ¿La empresa revisa el contenido más detenidamente? Los representantes de Facebook también sostienen que consultan con expertos locales sobre estos problemas, pero las consideraciones específicas de estas consultas son poco claras.

Y el trabajo de moderación del contenido –decidir qué cumple con las normas legales del lugar y las políticas propias de Facebook– no es fácil. Anderson de onlinecensorship.org dice: 

Content moderation is incredibly labor intensive. As the largest platforms continue to grow, these companies are attempting to moderate a staggering volume of content. Workers (who may not have adequate knowledge and training, and may not be well paid) have to make snap decisions about nuanced and culturally-specific content, leading to frequent mistakes and inconsistencies.

La moderación del contenido es un trabajo increíblemente intensivo. Como las grandes plataformas siguen creciendo, estas empresas intentan moderar un volumen de contenido impactante. Los trabajadores (que pueden no tener un conocimiento y entrenamiento adecuado, y tal vez ni buen sueldo) tienen que tomar decisiones rápidas sobre contenidos matizados y culturalmente específicos, lo que lleva a errores frecuentes e inconsistencias.

Para los activistas y defensores de los derechos humanos en la región, es dificil conocer el alcance de este problema por la falta de transparencia empresarial. Casos como el de iTunes pueden ocurrir más seguido de lo que se sabe publicamente –solo cuando alguien habla sobre ser censurado es cuando estas prácticas salen a la luz.

Inicie la conversación

Autores, por favor Conectarse »

Guías

  • Por favor trate a los demás con respeto. Comentarios conteniendo ofensas, obscenidades y ataque personales no serán aprobados.