Este artículo se publica como parte de una asociación editorial entre Global Voices y Ranking Digital Rights.
Un nuevo video del canal de YouTube de Orient News muestra una escena demasiado familiar a sus espectadores habituales. El personal de un hospital en la provincia siria de Idlib se apresuran a operar a un hombre que acaba de ser herido en una explosión. La cámara va hacia abajo y muestra tres cuerpos en el suelo. Uno yace inerte. Los otros dos están cubiertos con sábanas. Un hombre se inclina y mira debajo de la sábana, tal vez para ver si conoce a la víctima.
El medio de comunicación sirio Orient News es uno de varios medios pequeños que han tenido un rol fundamental en documentar la guerra civil de Siria y poner en video evidencia de violencia contra civiles para el público. El grupo está activo desde 2008, y es un abierto crítico del régimen de Assad.
Junto con sus propios canales de distribución, YouTube ha sido un vehículo importante para llevar videos como el descrito a una audiencia mayor. O al menos lo fue hasta agosto de 2017 cuando, sin advertencia, el canal de Orient News en YouTube quedó suspendido.
Después de algunas averiguaciones, junto con otros pequeños grupos de medios como Bellingcat, Middle East Eye y Syrian Archive –a todos se les desaparecieron algunos videos– se supo que YouTube había retirado cientos de videos que parecían incluir contenido “extremista”.
Pero estos grupos estaban confundidos. Durante años habían estado publicando sus videos, que normalmente incluyen leyendas y detalles contextuales. ¿Por qué de un momento a otro los consideraban inseguros para la masiva base de usuarios de YouTube?
Porque había una nueva autoridad para decidir sobre las tomas.
Justo antes de las misteriosas desapariciones, YouTube anunció que desplegaría tecnología de inteligencia artificial para identificar y censurar “contenido gráfico o extremista”, para reprimir a ISIS y grupos similares que han usado medios sociales (como YouTube, Twitter y el ya desaparecido Google Plus) para publicar material repugnante de ejecuciones y para reclutar combatientes.
Miles de videos que documentan crímenes de guerra y violaciones a los derechos humanos fueron eliminados y censurados en esta purga de inteligencia artificial. Después de que los grupos preguntaron a YouTube por la medida, la empresa admitió que tomó una “mala decisión’ en varios videos, que volvieron a publicar. Otros siguieron con la prohibición, por “contenido violento y gráfico”.
El mito de la autorregulación
Empresas como Google (empresa matriz de YouTube), Facebook y Twitter tienen razones legítimas para tomar medidas especiales cuando se trata de violencia gráfica y contenido asociado con grupos extremistas violentos –puede llevar a situaciones de daño en la vida real y también puede ser malo para las empresas. Pero la pregunta de cómo deberían identificar y retirar esos contenidos –pero preservar evidencia esencial de crímenes de guerra y violencia– no queda contestada.
Las empresas han elaborado sus políticas a lo largo de los años para reconocer que no todo el contenido violento tiene la intención de promover o incitar la violencia. Aunque YouTube, como otras plataformas, no permite el contenido más extremista o violento, permite a los usuarios publicar ese contenido en un “contexto de noticias, documental, científico o artístico”, y los exhorta a brindar información contextual sobre el video.
Pero la política advierte: “En algunos casos, el contenido puede ser tan violento o chocante que ningún contexto permitirá que ese contenido se quede en nuestras plataformas”. YouTube no ofrece información pública que describa cómo los mecanismos internos determinan qué videos son “tan violentos o chocantes”.
Este enfoque pone a la empreesa en una posición precarioa. Evalúa el contenido para consumo del público, pero no tiene mecanismos para garantizar la transparencia pública o la rendición de cuentas sobre estas evaluaciones. La empresa está haciendo sus propias reglas y las cambia a voluntad, para servir mejor a sus intereses.
Propuesta de la Unión Europea podría hacer obligatorias las soluciones de inteligencia artificial
Un comité de la Comisión Europea amenaza con intervenir en este escenario con un proyecto de regulación que obligaría a las empresas a reforzar el retiro de “contenido terrorista” o enfrentar duras multas. Aunque la regulación propuesta rompería el ciclo de empresas que intentan y suelen fallar en “autorregularse”, empeoraría las cosas para grupos como Orient News.
¿Qué dice la propuesta de la comisión?
De acuerdo con la propuesta, con la finalidad de «evitar la difusión de contenido terrorista en línea», los proveedores de servicio deben «tomar medidas proactivas para proteger sus servicios contra la difusión de contenido terrorista». Estas incluyen el uso de herramientas automatizadas para «(a) abordar efectivamente la reaparición de contenido que ha sido retirado o cuyo acceso ha sido inhabilitado por ser considerado contenido terrorista; (b) detectar, identificar y retirar expeditivamente o inhabilitar el acceso a contenido terrorista», estipula el artículo 6(2).
De aprobarse, la propuesta también obligaría a los «proveedores de servicio de alojamiento a retirar contenido terrorista o inhabilitar el acceso en el término de una hora de haber recibido la orden de retirarlo».
También concede a las autoridades de Europal la facultad de «enviar una referencia» a los proveedores de servicio de alojamiento para su «consideración voluntaria». El proveedor del servicio evaluará el referido contenido «dentro de sus propios términos y condiciones y decidir si retirar el contenido o inhabilitar su acceso».
El proyecto de regulación establece eliminación más agresiva de este tipo de contenido y plazos más rápidos para su eliminación. Pero no establece una corte especial ni otro mecanismo judicial que pueda ofrecer una pauta a las empresas que quieren evaluar contenido en línea complejo.
En cambio, obligaría a los proveedores de servicio de alojamiento a usar herramientas para evitar la difusión de “contenido terrorista” en línea. Esto obligaría a las empresas a usar el sistema que YouTube ya ha puesto en vigencia voluntariamente.
La propuesta de la Unión Europea le pone mucha fe a estas herramientas, e ignora el hecho de que los usuarios, expertos técnicos y hasta los propios legisladores quedan sin saber cómo funcionan estas tecnologías.
¿La inteligencia artificial realmente puede evaluar el valor de derechos humanos de un video?
Se puede capacitar a las herramientas automatizadas para evaluar si un video es violento o gráfico. Pero ¿cómo determinan el supuesto objetivo del video? ¿Cómo saben si quien publicó el video intentaba documentar el costo humano de un conflicto? ¿Pueden estas tecnologías realmente entender el contexto en que estos incidentes ocurren? ¿Hasta qué punto los moderadores humanos intervienen en estas decisiones?
Casi no tenemos respuestas a estas preguntas.
“Casi no tenemos las garantías más básicas de responsabilidad algorítmica ni transparencia, como exactitud, facilidad de explicación, legitimidad y verrificable. Las plataformas usan algoritmos de aprendizaje automático que están registrados y protegidos de cualquier revisión”, escribió Dia Kayyali de WITNESS en un artículo de diciembre de 2018.
Los críticos de la propuesta sostienen que obligar a todos los proveedores de servicio a depender de herramientas automatizadas en sus intentos de reprimir contenido terrorista y extremista, sin transparencia ni adecuada supervisión, es una amenaza a la libertad de expresión y la web abierta.
Los relatores espaciales de Naciones Unidas para la promoción y protección del derecho a la libertad de opinión y expresión, el derecho a la privacidad y la promoción y protección de derechos humanos y libertades fundamentales, aunque luchan contra el terrorismo, también han expresado su preocupación a la comisión. En un memo de diciembre de 2018, escribieron:
Considering the volume of user content that many hosting service providers are confronted with, even the use of algorithms with a very high accuracy rate potentially results in hundreds of thousands of wrong decisions leading to screening that is over — or under — inclusive.
Considerando el volumen del contenido de usuario que muchos proveedores de servicio de alojamiento enfrentan, hasta el uso de algoritmos con una alta tasa de precisión puede resultar en cientos de miles de decisiones equivocadas que llevan a filtación que es demasiado inclusiva, o casi nada inclusiva.
En el considerando 18, la propuesta define medidas que pueden tomar los proveedores de servicios de alojamiento para evitar la difusión de contenido relacionado con terrorismo, incluido el uso de herramientas que “evitarían que se volviera a pubilcar contenido terrorista”. A esas herramientas se les conoce comúnmente como filtros de publicación, y representan una preocupación particular para los grupos de derechos digitales europeos. El asunto surgió durante la presentación de la Unión Europea para la Directiva de Propiedad Intelectual, que hubiera necesitado que las plataformas verificaran la propiedad de un contenido cuando el usuario lo publica.
“Tememos que se use mal’, dijo Evelyn Austin la organización neerlandesa de derechos digitales Bits of Freedom en una conferencia pública.
We see as inevitable a situation in which there is a filter for copyrighted content, a filter for allegedly terrorist content, a filter for possibly sexually explicit content, one for suspected hate speech and so on, creating a digital information ecosystem in which everything we say, even everything we try to say, is monitored.
Consideramos inevitable una situación en la que haya un filtro para contenido registrado, un filtro para supuesto contenido terrorista, un filtro para contenido posiblemente explícito sexualmente, uno para presunto discurso de odio, entre otros, lo que crearía un ecosistema de información digital en el que todo lo que se dice, y hasta lo que intentamos decir, está vigilado.
Austin señaló que estos mecanismos socava las estrategias anteriores que dependían más del uso del debido proceso.
Upload filtering….will replace notice-and-action mechanisms, which are bound by the rule of law, by a process in which content is taken down based on a company's terms of service. This will strip users of their rights to freedom of expression and redress…
El filtro de publicaciones… reemplazará mecanismos de notificación y acción, que están limitados por la ley, por un proceso en el que se retira contenido según los términos de servicio de una empresa. Esto dejará a los usuarios de sus derechos a la libertad de expresión y rectificación…
La propuesta de la Unión Europea también aplica duras penalidades financieras a empresas que no cumplen. Para uns sola empresa, esto puede equivaler hasta el 4 % de sus ingresos totales del año comercial anterior.
El grupo francés de derechos digitales La Quadrature du Net tuvo una fuerte crítica a la propuesta, y expresó las limitaciones que fijaría para sitios web y servicios más pequeños:
From a technical, economical and human perspective, only a handful of providers will be able to comply with these rigorous obligations – mostly the Web giants.
To escape heavy sanctions, the other actors (economic or not) will have no other choice but to close down their hosting services…
Desde una perspectiva técnica, económica y humana, solamente algunos proveedores podrán cumplir con estas rigurosas obligaciones –sobre todo, gigantes de la web.
Para escapar a las fuertes sanciones, los otros actores (económicos o no) no tendrán más opción que cerrar sus servicios de alojamiento.
«Por medio de estas herramientas», advirtieron, «estas empresas monopólicas estarán a cargo de juzgar lo que se puede decir en internet, casi en cualquier servicio».
Ciertamente, peor que alentar la “autorregulación”, la propuesta de la Unión Europea nos alejará más de un mundo en el que el debido proceso u otros mecanismos públicos se usen para decidir qué decimos y vemos en línea, y nos acerca a depender completamente en tecnologías registradas para decidir qué contenido es apropiado para consumo público –sin mecanismos para supervisión pública.