Demanda contra Meta en Kenia abre la vía para que países africanos demanden a empresas tecnológicas

image credits: Book Catalog. Attribution 2.0 Generic (CC BY 2.0)

Créditos de las imágenes: Book Catalog. Reconocimiento 2.0 Genérico (CC BY 2.0).

Un tribunal keniano dictaminó recientemente que puede seguir adelante una demanda contra Meta, empresa matriz de Facebook, presentada por un exmoderador de Facebook, Daniel Motaung, por supuesta explotación y ambiente de trabajo tóxico en su oficina de Nairobi. Esto sienta un precedente para las empresas tecnológicas que han intentado eludir las repercusiones legales en los tribunales con el argumento de falta de jurisdicción. Motaung también demandó a Meta Platforms Ireland Limited y a su agente local de subcontratación, Samasource Kenya EPZ Limited.

En su demanda presentada ante el Tribunal de Empleo y Relaciones Laborales de Kenia en 2022, Motaung y otros 12 exempleados afirman que sufrieron lesiones psicológicas por la exposición repetida a contenidos extremadamente perturbadores, gráficos y violentos, junto con un ambiente de trabajo tóxico.

A través de su abogado, Meta alegó que Meta Platforms, Inc. y Facebook son empresas extranjeras y no están domiciliadas ni comercian en Kenia, por lo que no estaban bajo la jurisdicción del país. Sin embargo, el Tribunal de Empleo y Relaciones Laborales dictaminó el 6 de febrero que Meta puede ser demandada en Kenia. Será la primera vez que una demanda contra un gigante mundial de la tecnología llegue a juicio, no sólo fuera de Occidente, sino en África, donde se cometieron los delitos.

Esta decisión judicial podría abrir las compuertas para que otras empresas tecnológicas sean demandadas en Kenia y otros países. Esto podría incluir a OpenAI que, según una reciente revelación de la revista Times, pagó a trabajadores kenianos menos de dos dólares estadounidenses para entrenar a la inteligencia artificial, y que a menudo les exigía revisar material explícito y traumático.

Daños de la moderación de contenidos

La moderación de contenidos, el proceso de revisar las publicaciones, fotos y videos en las redes sociales para determinar si el contenido infringe las políticas de una plataforma, ha sido objeto de mayor escrutinio en los últimos años, a medida que se ha hecho más evidente el impacto en la salud mental de los trabajadores.

A pesar de que la moderación de contenidos es una función básica de cualquier sitio de redes sociales, Facebook opta por no emplear directamente a las 15 000 personas que se encargan de ello. En cambio, subcontrata para esta función de seguridad crítica a terceros, como Genpet en India, Cognizant en Estados Unidos, Covalen y Accenture en Irlanda y, hasta hace poco, Sama Source en Kenia.

Las historias de los moderadores de contenidos subcontratados por para Facebook son todas inquietantemente similares: están expuestos a prolongadas horas a contenidos repulsivos, reciben poco o ningún apoyo para contrarrestar o enfrentar los daños derivados de la exposición a esos contenidos, se les paga injustamente y se los amordaza con acuerdos de confidencialidad. Tras el caso de mayo de 2020 en el que Meta pagó 52 millones de dólares estadounidenses por concepto de indemnización a más de 11 000 moderadores de contenidos en Estados Unidos por problemas de salud mental presentados durante su trabajo, la empresa mejoró las condiciones laborales de algunos moderadores en Estados Unidos. No replicó esto con otros en el extranjero.

Según Nanjira Sambuli, investigadora y analista política keniana, África se convirtió en el siguiente mejor destino para exportación de la moderación de contenidos y, con eso, de sus efectos secundarios.

Odanga Madung, investigador de Mozilla, periodista de datos independiente y cofundador de Odipo Dev, afirma que Motaung tiene argumentos sólidos. Según dijo a Global Voices, basándose únicamente en las demandas anteriores por moderación de contenidos, es probable que Meta llegue a un acuerdo extrajudicial.

If this case does go to a full hearing, it will most likely expose the intricacies within Facebook. The public will get access to their content moderation practices. What makes them allow content to stay up or be taken down and in so doing, open them up to other suites or more scrutiny.

Si este caso llega a juicio, lo más probable es que exponga los entresijos de Facebook. El público tendrá acceso a sus prácticas de moderación de contenidos. Qué los hace permitir que el contenido permanezca o sea retirado y, al hacerlo, abrir la posibilidad de demandas o a un mayor escrutinio.

Odanga se refería al acuerdo de mayo de 2020.

‘Hemos evitado un precedente muy peligroso’

Pero donde Meta vio un desierto digital en Nairobi con su mano de obra joven y conocedora de la tecnología que podía ser explotada con prácticas laborales inaceptables, no vio o ignoró el sistema judicial del país. En octubre de 2021, el Tribunal Supremo de Kenia emitió otra sentencia histórica contra Uber por violar los contratos con los conductores en Kenia. Al igual que Meta, Uber lo intentó y fracasó con el mismo argumento de no estar domiciliada en Kenia. Durante años, sus conductores lucharon para demostrar que Uber Kenya Limited y Uber BV eran realmente la misma empresa. Al final, ganaron.

Odanga explicó:

This ruling is a big deal for us who are in the platform accountability space, especially given the recent attempt by Facebook and Meta to skip accountability in saying that they are not domiciled in the country. The fact that they could escape responsibility for any sort of harm that they would cause the citizens of another country has been troubling.

Esta sentencia es muy importante para quienes trabajamos en el ámbito de la responsabilidad de las plataformas, sobre todo teniendo en cuenta el reciente intento de Facebook y Meta de eludir la responsabilidad con el argumento de que no están domiciliados en el país. Que pudieran eludir la responsabilidad por cualquier daño que causaran a los ciudadanos de otro país ha sido preocupante.

Como becario de Mozilla, Odanga ha estado denunciando la industria de la desinformación que ha estado prosperando en Kenia con informes basados en investigación y presiones a las plataformas de medios sociales para que sean más responsables.

A propósito de la importancia y trascendencia de la sentencia, afirmó: «Creo que hemos evitado un precedente muy peligroso con una sentencia de este tipo dictada en nuestros tribunales».

El efecto mariposa

Odanga habló del efecto mariposa que esta reciente sentencia tendrá para muchas personas del sector como él, pero sobre todo para los usuarios de Facebook y los activistas de derechos digitales que han sido víctimas de sus prácticas poco claras de moderación de contenidos.

Entre ellos se encuentran dos investigadores etíopes que, junto con el grupo de derechos keniata Instituto Katiba, han demandado a Meta por 1600 millones de dólares por permitir que prosperen en su plataforma contenidos que incitan al odio y alimentan la violencia étnica etíope.

Cori Crider, una de las cofundadoras y directoras de FoxGlove, organización sin fines de lucro dedicada a justicia tecnológica, habló en una en videoconferencia con periodistas en Nairobi tras la sentencia del Motaung contra Meta, sobre la importancia de los dos casos y cómo la moderación de contenidos (o la falta de moderación en el caso de los etíopes) estaba en el centro de ambos casos.

Como señaló, ambos casos surgieron a raíz de lo ocurrido en el mismo centro de moderación de contenidos de Sama Source en Nairobi.

La información revelada por un exempleado de Meta a FoxGlove reveló que el 87 % del presupuesto para desinformación de Facebook se destina a Estados Unidos.

A pesar de la importancia de la región subsahariana, Meta no ha invertido en estos millones, afirmó.

Como explicó Crider, este fracaso al asignar un presupuesto acorde para la moderación de contenidos es lo que creó la insostenible dotación de personal que les llevó a permitir que florecieran mensajes violentos y llenos de odio procedentes de Etiopía, lo que inflamó la sangrienta guerra civil del país. También es lo que llevó a la explotación de los moderadores de contenidos y a unas condiciones de trabajo que, en el caso de Motaung y sus colegas, causaron traumas psicológicos y estrés postraumático, añadió.

De los derechos humanos a un argumento económico

El desempleo juvenil es una auténtica crisis en África. Según Statista, la tasa en Kenia aumentó 0,3 puntos porcentuales en 2021 en comparación con el año anterior. Según los últimos datos, la tasa de desempleo juvenil de Kenia alcanzó un máximo del 13,84 % en 2021.

La falta de políticas que regulen la creciente economía colaborativa de Kenia amenaza con convertir a sus jóvenes con conocimientos digitales en esclavos digitales, mientras siguen apareciendo en los titulares casos crecientes de explotación por parte de las grandes tecnológicas. Odanga también habló de un temor real entre sus colegas investigadores, defensores keniatas de los derechos humanos y digitales, de que la clase política pueda convertir rápidamente esta cuestión de derechos humanos en un argumento económico y, al hacerlo, abdicar de su papel de formulación de políticas para que las leyes laborales se extiendan incluso al espacio digital.

Mientras que Crider ve los dos casos como una oportunidad para restablecer la relación entre democracias importantes como Kenia (y la región) y algunas de las empresas tecnológicas más grandes y poderosas que el mundo haya visto jamás, Nanjira advierte que estas oportunidades no se materializarán plenamente a menos que «los responsables políticos africanos establezcan guardarraíles sobre cómo se regula la economía del subempleo en el continente».

Inicia la conversación

Autores, por favor Conectarse »

Guías

  • Por favor, trata a los demás con respeto. No se aprobarán los comentarios que contengan ofensas, groserías y ataque personales.