Moderación global, impacto local: Serie sobre moderación de contenido en el hemisferio sur

Imagen de dominio público.

Este artículo fue escrito por Michael Karanicolas, becario de la Facultad de Derecho de Yale donde dirige la Iniciativa Wikimedia sobre Intermediarios e Información como parte del Proyecto de la Sociedad de la Información. Es el primero de una serie de artículos publicados por la iniciativa para captar perspectivas sobre los impactos globales de las decisiones de moderación de contenido de las plataformas. Puedes encontrar al autor en @M_Karanicolas en Twitter, y puedes leer todos los artículos de la serie de blogs aquí.

Cada minuto, se publican más de 500 horas de vídeo en YouTube, se envían 350 000 tweets y se publican 510 000 comentarios en Facebook. Administrar y gestionar esta cantidad de contenido es una tarea enorme, que brinda a las plataformas un enorme poder sobre los límites del discurso en línea. Esto incluye las decisiones sobre si un publicación en particular debe ser eliminada, y también intervenciones más diminutas y sutiles que determinan si se hacen virales. Desde decidir hasta qué punto permitir que las ideas de los charlatanes sobre COVID-19 se arraiguen, hasta el grado de flexibilidad que se concede al presidente de Estados Unidos para romper las reglas, la moderación del contenido plantea difíciles desafíos que están en el centro de los debates sobre la libertad de expresión.

Pero aunque se ha derramado mucha tinta sobre el impacto de los medios sociales en la democracia de Estados Unidos, estas decisiones pueden tener un impacto aún mayor en todo el mundo. Esto es particularmente cierto en lugares donde el acceso a los medios tradicionales es limitado, lo que da a las plataformas un monopolio virtual en la configuración del discurso público. Una plataforma que no tome medidas contra la incitación al odio puede ser decisiva para desencadenar un pogromo local, hasta un genocidio. Una plataforma que actúe con demasiada agresividad para eliminar la presunta «propaganda terrorista» puede encontrarse destruyendo pruebas de crímenes de guerra.

El poder de las plataformas sobre el discurso público es en parte el resultado de una decisión consciente de los Gobiernos mundiales de subcontratar las funciones de moderación en línea a estos actores del sector privado. En todo el mundo, los Gobiernos están haciendo pedidos cada vez más agresivos para que las plataformas vigilen el contenido que consideran objetable. El material dirigido puede ir desde fotos atrevidas del rey de Tailandia hasta material que se considere insultante para el presidente fundador de Turquía. En algunos casos, esas solicitudes se basan en normas jurídicas locales, lo que coloca a las plataformas en la difícil posición de tener que decidir cómo hacer cumplir una ley del Pakistán, por ejemplo, que sería manifiestamente inconstitucional en Estados Unidos.

Sin embargo, en la mayoría de los casos, las decisiones de moderación no se basan en ninguna norma jurídica en absoluto, sino en las propias directrices comunitarias de las plataformas, redactadas en privado, que son notoriamente imprecisas y difíciles de comprender. Eso da lugar a una grave falta de responsabilidad en los mecanismos que rigen la libertad de expresión en línea. Y aunque la percepción de opacidad, inconsistencia e hipocresía de las estructuras de moderación de contenidos en línea puede parecer frustrante para los estadounidenses, para los usuarios del mundo en desarrollo es mucho peor

Casi todas las mayores plataformas se ubican en Estados Unidos. Esto significa que sus responsables son más accesibles y receptivos a su base de usuarios estadounidenses que a los frustrados internautas de Myanmar o Uganda, y también que sus políticas mundiales siguen teniendo mucha influencia de las normas culturales estadounidenses, en particular la Primera Enmienda.

Aunque las mayores plataformas han hecho esfuerzos por globalizar sus operaciones, sigue habiendo un enorme desequilibrio en la capacidad de periodistas, activistas de derechos humanos y otras comunidades vulnerables para comunicarse con el personal de Estados Unidos que decide qué se puede y qué no se puede decir. Cuando las plataformas se ramifican a nivel mundial, tienden a contratar personal que está conectado a las estructuras de poder existentes, en lugar de quienes dependen de las plataformas como un salvavidas lejos de las restricciones represivas de la palabra. Por ejemplo, la presión para tomar medidas enérgicas contra el «contenido terrorista» conduce inevitablemente a daños colaterales contra el periodismo o el discurso político legítimo, en particular en el mundo árabe. Al establecer este cálculo, es mucho más probable que los Gobiernos y exfuncionarios gubernamentales tengan un asiento en la mesa que los periodistas o los activistas de derechos humanos. De la misma manera, el Gobierno israelí tiene más facilidad para comunicar sus deseos y necesidades a Facebook que, por ejemplo, los periodistas y las ONG palestinas.

Nada de esto pretende minimizar el alcance y la escala del reto al que enfrentan las plataformas. No es fácil elaborar y aplicar políticas de contenido que consideren las necesidades tan diferentes de su base de usuarios a nivel mundial. Por lo general, las plataformas tienen por objeto proporcionar a todos una experiencia aproximadamente idéntica, incluidas expectativas similares con respecto a los límites de la palabra permitida. Existe una clara tensión entre este objetivo y las conflictivas normas jurídicas, culturales y morales vigentes en los numerosos países en que operan. Pero la importancia y el peso de esas decisiones exigen que las plataformas consigan ese equilibrio y elaboren y apliquen políticas que reflejen adecuadamente su función en el centro de los debates políticos desde Rusia hasta Sudáfrica. A pesar de que las plataformas han crecido y se han extendido por todo el mundo, el centro de gravedad de estos debates sigue girando en torno a Washington D.C. y San Francisco.

Este es el primero de una serie de artículos que pretende salvar la brecha entre los debates políticos actuales sobre la moderación de contenidos y las personas más afectadas, en particular en todo el hemisferio sur. Los autores son académicos, activistas de la sociedad civil y periodistas cuyo trabajo está en el filo de las decisiones de contenido. Al pedirles sus contribuciones, les ofrecimos una relativa libertad para priorizar las cuestiones que consideraban más serias e importantes con respecto a la moderación de contenidos, y les pedimos que señalaran las esferas en las que era necesario mejorar, en particular con respecto al proceso de moderación, la participación de la comunidad y la transparencia. Entre las cuestiones que señalaron figuraban una frustración común por el carácter distante y opaco de los procesos de adopción de decisiones de las plataformas, el deseo de que las plataformas trabajaran para lograr una mejor comprensión de la dinámica sociocultural local subyacente al discurso en línea, y la sensación de que el enfoque de las plataformas respecto de la moderación a menudo no reflejaba la importancia de su función de facilitar el ejercicio de los derechos humanos fundamentales. Aunque cada una de las diferentes voces ofrece una perspectiva única, dibujan un cuadro común de la forma en que la toma de decisiones de las plataformas repercute en sus vidas, y de la necesidad de hacerlo mejor, en consonancia con el poder que tienen las plataformas para definir los contornos del discurso mundial.

En última instancia, nuestra esperanza en esta serie es arrojar luz sobre los impactos de las decisiones de las plataformas en todo el mundo, y proporcionar orientación sobre cómo las plataformas de medios de comunicación social podrían hacer un mejor trabajo de desarrollo y aplicación de estructuras de moderación que reflejen sus necesidades y los valores de sus diversos usuarios globales.

Inicia la conversación

Autores, por favor Conectarse »

Guías

  • Por favor, trata a los demás con respeto. No se aprobarán los comentarios que contengan ofensas, groserías y ataque personales.