- Global Voices en Español - https://es.globalvoices.org -

Consejo de Supervisión de Meta enfrenta las poco claras directrices de contenidos de Facebook e Instagram

Categorías: Censura, Medios ciudadanos, Tecnología, GV Advox

Imagen cortesía de Giovana Fleck

Las redes sociales, cuando son utilizadas correctamentge, pueden jugar un papel fundamental para los defensores de los derechos humanos en salvar vidas. A través de las plataformas en línea (redes sociales), los usuarios pueden dar a conocer hechos o situaciones que podrían ser ignoradas por los medios convencionales, e incluso aportar valiosas corroboraciones de crímenes de guerra, lo que permitiría que los autores puedan comparecer ante la justicia [1].

Sin embargo, en los últimos meses, los usuarios que denuncian abusos contra los derechos humanos en Instragram y Facebook (ambas propiedad de Meta) se han encontrado a merced de los algoritmos y las poco claras directrices de contenido de Meta. Como resultado, el Consejo de Supervisión de Meta (mecanismo de apelación establecido por Meta para los usuarios que consideraban que su contenido había sido eliminado de forma errónea) se ha encontrado revocando las decisiones originales de Meta, y también emitiendo directrices políticas para permitir que el gigante tecnológico proteja mejor los derechos de los usuarios.

Por ejemplo, el Consejo revocó recientemente la decisión de Meta de retirar un video de Instagram, que mostraba las sangrientas secuelas de un atentado terrorista en Nigeria [2]. La publicación fue retirada en virtud de la política de Meta, que prohíbe los videos que muestren violencia gráfica y contenidos que abarquen comentarios sádicos hacia imágenes que representen sufrimiento humano. La publicación fue eliminada a pesar de que ninguna leyenda ni etiqueta que acompañaba el video tenían la intención de transmitir diversión ni obtener placer del sufrimiento de otros, según la opinión de la mayoría del Consejo. Más bien, trataban de dar a conocer a su comunidad que Nigeria había intentado suprimir la cobertura de una reciente oleada de atentados terroristas, lo que también fue vital para la decisión del Consejo de defender la libertad de expresión del usuario. Cabe señalar que la interpretación de Meta del término «sádico» no se había hecho pública y que las directrices internas dadas a los moderadores del gigante tecnológico habían sido demasiado amplias.

En teoría, la «política de contenidos gráficos o violentos [3]» permite a los usuarios condenar y dar a conocer «temas importantes como abusos de los derechos humanos, conflictos armados o actos de terrorismo».  Sin embargo, el Consejo señaló que: «la política de contenidos gráficos y violentos no aclara cómo que Meta permite a los usuarios difundir contenidos gráficos para dar a conocer o documentar abusos».

No era la primera vez que el Consejo planteaba este tipo de preocupaciones. Antes de esta decisión, Meta retiró un video que documentaba la respuesta abusiva del Ejército sudanés [4] hacia los manifestantes tras su toma del poder civil. La empresa revocó entonces su decisión amparándose en la excepción de «interés periodístico», que permite que los contenidos sigan siendo visibles cuando son de interés público. Aunque el Consejo aprobó el cambio de Meta, expresó su preocupación por el hecho de que la política de interés periodístico no dejara claro cuándo los contenidos que documentan atrocidades se beneficiarían de la excepción: la falta de una definición que aclarara el término «interés periodístico» exponía a los usuarios al riesgo de decisiones «arbitrarias» e «incoherentes». Además, en los 12 meses anteriores a marzo de 2022, Meta sólo había concedido 17 exenciones por «interés periodístico» en virtud de su política de contenidos violentos. Dado que Meta había eliminado 90,7 millones de contenidos en virtud de esta norma comunitaria en los tres primeros trimestres de 2021, existía una clara preocupación por el hecho de que contenidos que podrían ser de interés público no estuvieran llegando a buen puerto.

Otro objetivo de las críticas del Consejo ha sido la política de Meta, que prohíbe elogiar a personas y organizaciones peligrosas [5]. En varias ocasiones, el Consejo ha recomendado [6] a Meta que elabore criterios y ejemplos ilustrativos para que los usuarios comprendan mejor las excepciones para la discusión neutral, la condena y la información periodística. El Consejo ha declarado que incluso el término «elogio» no estaba definido de forma correcta. Las directrices internas de Meta indican a los revisores que eliminen los contenidos de elogio si «hacen que la gente piense de forma más positiva sobre» un grupo designado y «hace que el significado de ‘elogio’ no se refiera tanto a la intención del orador [7] como a los efectos en la audiencia». Luego de esto, usuarios que criticaban claramente abusos de derechos humanos [8] o incluso informaban neutralmente sobre las actividades de los talibanes [7] hayan visto eliminadas sus publicaciones, ya que solo por casualidad mencionaban a una organización objeto de la política. Esto se ve agravado debido a que Meta ha ocultado al público su lista de organizaciones peligrosas.

Estas preocupaciones no son nuevas. Tras un extenso análisis [9], el artículo 19 de la ONG señaló en 2018 que las condiciones de servicio de los gigantes dominantes de las redes sociales como, YouTube, Facebook, Twitter y Google se caracterizaban por la falta de transparencia y estándares más bajos cuando se trataba de la libertad de expresión.

Para reforzar sus equipos de moderación de contenidos, Meta ha establecido un sistema de «bancos de servicios de coincidencia de medios», que identifican y eliminan de forma automática las imágenes que han sido identificadas con antelación por revisores humanos como infractoras de las normas de la empresa. Inicialmente concebidos para permitir a Meta tomar decisiones con rapidez y a gran escala, estos sistemas han acabado amplificando el impacto de las decisiones humanas erróneas.

En una ocasión, un usuario publicó una viñeta de crítica a la Policía colombiana [10], y luego vio su comentario eliminado debido a que coincidiera automáticamente con una imagen ya marcada como problemática por un revisor humano. En opinión de la Comisión, dado que el objetivo de la viñeta era sin duda alguna criticar a los agentes o acciones del Estado, Facebook se había equivocado al añadirla al banco. Para agravar aún más su preocupación, cientos de usuarios habían publicado la misma viñeta y sus mensajes habían sido eliminados por los sistemas automatizados de Meta. Doscientos quince de estos usuarios recurrieron estas supresiones, el 98 % de los cuales tuvieron éxito. A pesar de eso, Meta tardó en retirar la viñeta del banco de medios.

Por el contrario, en una decisión relativa a Etiopía [11], el Consejo criticó a Meta por su lentitud a la hora de tomar medidas contra los contenidos que alimentan las tensiones étnicas y los conflictos armados. Según el Consejo «se necesita más transparencia para evaluar si las medidas de Meta se dan siempre a lo largo de un conflicto y en todos los contextos de conflicto armado». Aunque Meta pareció actuar con prontitud durante el conflicto entre Rusia y Ucrania, se ha mostrado demasiado lenta con otras regiones afectadas por tales hechos, como Etiopía y Myanmar. La decisión de Etiopía puso de manifiesto algunas de las dificultades que entraña la vigilancia de la expresión en el contexto de un conflicto armado en curso. Según un cometario público presentado por un académico, hubo una «falta de compromiso con las comunidades en Etiopía». Los contenidos que incitaban a la violencia contra los tigrayanos habían «pasado desapercibidos» debido a la falta de moderadores que hablan lengua nativa. En un caso, una publicación de Facebook que pedía la expulsión de los tigrayanos de la región de Amhara permaneció en la plataforma más de cuatro meses. Puesto a eso, un informe [12] de la Oficina de Periodistas de Investigación, el comentarista señaló que las campañas de odio en línea habían alimentado los abusos contra los tigrayanos que viven en la ciudad de Gondar.

Dado el enorme volumen de contenidos que Meta regula en sus plataforma (23, 2 millones de publicaciones consideradas gráficas y violentas fueron «objeto de acción [13]«, en el tercer trimestre de 2022), ya que es inevitable que la empresa continúe caminando sobre la delgada línea que separa la protección de la libertad de expresión de los usuarios y la garantía de que Facebook e Instagram no se conviertan en refugios seguros para contenidos ilegales. El impulso mundial [14] para obligar a los proveedores de contenidos en línea a adoptar una postura más firme contra la desinformación y la incitación al odio no hará sino exacerbar los riesgos inherentes a este proceso. Aunque las recomendaciones políticas del Consejo dan una orientación muy necesaria sobre cómo conseguir el equilibrio adecuado, hay una trampa como su nombre indica, las recomendaciones son sólo consultivas. Meta no está obligada a aplicarlas (aunque se ha comprometido a responderlas en un plazo de 60 días [15]). Si Meta quiere seguir siendo un espacio seguro para los defensores de los derechos humanos, tendrá que comprometerse seriamente y de buena fe con el Consejo de Supervisión.