Facebook admite lentitud para enfrentar el discurso de odio en Myanmar

«Monje utiliza su teléfono en la pagoda de Shwedagon en Rangún, Myanmar». Imagen y texto de Remko Tanis. Fotografía de Flickr, (CC BY-NC-ND 2.0).

El 15 de agosto de 2018, Facebook informó que sus esfuerzos para lidiar con la información equivocada, las noticias falsas y el discurso de odio en Myanmar fueron lentos e inadecuados:

The ethnic violence in Myanmar is horrific and we have been too slow to prevent misinformation and hate on Facebook.

La violencia étnica en Myanmar es atroz y hemos tardado demasiado para impedir la información equivocada y el odio en Facebook.

La compañía citó algunos problemas técnicos y otras razones por las que no pudo abordar con decisión la información equivocada en el país:

The rate at which bad content is reported in Burmese, whether it’s hate speech or misinformation, is low. This is due to challenges with our reporting tools, technical issues with font display and a lack of familiarity with our policies.

El ritmo en el que denuncian el contenido perjudicial en Myanmar, sea discurso de odio o información equivocada, es lento. Esto se debe a dificultades con nuestras herramientas de denuncia, problemas técnicos con la visualización del tipo de fuente y falta de conocimiento de nuestras políticas.

Durante su audiencia ante el Senado de Estados Unidos en abril de 2018, Mark Zuckerberg, director ejecutivo de Facebook, alardeó del progreso que ha tenido su compañía en solucionar el problema de la difusión de discurso de odio en países como Myanmar.

No obstante, seis grupos de la sociedad civil firmaron una carta en la que refutaron la declaración de Zuckerberg, mientras que destacaron las «fallas inherentes» en la capacidad de Facebook para responder a las emergencias. Zuckerberg se disculpó rápidamente y se comprometió a hacer más para impedir que los grupos utilizaran la plataforma para promover la violencia religiosa y la discriminación en Myanmar.

El uso de Facebook aumentó repentinamente en el país durante los últimos años, lo que también provocó la difusión generalizada de noticias falsas, discurso de odio y otras formas de información equivocada dirigida a las minorías musulmanas del país, en particular a la apátrida población rohinyá.

Grupos budistas de línea dura fueron acusados de fomentar el odio y la intolerancia contra los rohinyá, lo que desencadenó enfrentamientos violentos, desplazamiento de musulmanes en el estado de Rakáin y se intensificó la persecución en línea contra las minorías.

El Gobierno de Myanmar se rehúsa a reconocer a los rohinyá como un grupo étnico del país y los considera inmigrantes ilegales.

Incluso antes del testimonio de Zuckerberg ante el Senado de Estados Unidos, funcionarios de Naciones Unidas culparon a Facebook por no poder evitar el discurso de odio en Myanmar.

Marzuki Darusman, presidente de la Misión Internacional de Determinación de Hechos en Myanmar, informó el 12 de marzo:

[H]ate speech and incitement to violence on social media is rampant, particularly on Facebook. To a large extent, it goes unchecked.

La situación del discurso de odio e incitación a la violencia en los medios sociales es desenfrenada, especialmente en Facebook. En gran parte, pasa desapercibida.

Yanghee Lee, relator especial de derechos humanos en Myanmar, dijo a los miembros de la trigésima séptima sesión del Consejo de Derechos Humanos:

[T]he level of hate speech, particularly on social media, has a stifling impact on asserting sensitive and unpopular views.

El nivel del discurso de odio, especialmente en los medios sociales, tiene un impacto opresivo en lo que respecta a dar opiniones delicadas e impopulares.

Una actualización reciente de Facebook permite revisar los mecanismos implementados en los últimos cinco meses para enfrentar el problema del discurso de odio y la información equivocada, e incluye los siguientes programas que Facebook lleva a cabo:

In the second quarter of 2018, we proactively identified about 52% of the content we removed for hate speech in Myanmar.

As of this June, we had over 60 Myanmar language experts reviewing content and we will have at least 100 by the end of this year.

We proactively identified posts that indicated a threat of credible violence in Myanmar. We removed the posts and flagged them to civil society groups to ensure that they were aware of potential violence.

En el segundo trimestre de 2018, identificamos activamente casi el 52 % del contenido que eliminamos por ser discurso de odio en Myanmar.

A partir de mes de junio, tuvimos a más de 60 expertos de birmano revisando contenido, y tendremos por lo menos cien al final de este año.

Identificamos proactivamente las publicaciones que suponían una amenaza de violencia válida en Myanmar. Eliminamos las publicaciones y las enviamos a los grupos de la sociedad civil para asegurar que estuvieran informados de la violencia potencial.

La actualización de Facebook salió un día después de que Reuters publicara un artículo especial sobre los «escasos» recursos que la compañía tecnológica designa para la resolución de quejas relacionadas con el discurso de odio en Myanmar. Reuters identificó también cerca de mil publicaciones que contenían discurso de odio a las que aún se podían acceder en Facebook durante la primera semana de agosto.

Ahora que Facebook reconoce la relación entre el discurso de odio en línea y la violencia infligida a los grupos minoritarios de Myanmar, falta ver aún hasta qué grado las acciones de la compañía detendrán la difusión de este tipo de contenido. No obstante, esto debería alentar a los grupos de la sociedad civil y demás defensores de los derechos humanos a ejercer una mayor presión sobre Facebook y demás plataformas digitales a fin de impedir la publicación y trasmisión de información equivocada en Myanmar y alrededor del mundo.

Inicia la conversación

Autores, por favor Conectarse »

Guías

  • Por favor, trata a los demás con respeto. No se aprobarán los comentarios que contengan ofensas, groserías y ataque personales.