¿Ve todos esos idiomas arriba? Traducimos las historias de Global Voices para que los medios ciudadanos del mundo estén disponibles para todos.

Entérate más sobre Traducciones Lingua  »

Noticias falsas y soluciones falsas: ¿Cómo construimos confianza ciudadana?

Protesters fly a flag upside down as a signal of distress outside the offices of The Washington Post in Washington D.C. on Inauguration Day, January 20, 2017. Photo: Ivan Sigal.

Manifestantes enarbolan una bandera invertida en señal de alerta frente a la sede del diario Washington Post en Washington D.C. el día de la toma de posesión de Trump, el 20 de enero de 2017. Fotografía: Ivan Sigal.

En su reciente manifiesto, Mark Zuckerberg afirma que la solución para nuestra política disfuncional y conflictiva reside en la construcción de una comunidad global más sólida sobre la base de una interconexión omnipresente. Sabemos, por supuesto, que Facebook saca provecho de esta visión utópica, y debemos mantenernos escépticos respecto a los motivos que subyacen a la postura de Zuckerberg. Pero vale la pena examinar nuevamente la idea de trabajar en los problemas políticos y económicos subyacentes en nuestras sociedades, en lugar de centrarnos en los efectos de la expresión en línea —particularmente en el contexto del pánico moral ante las “noticias falsas”.

La consternación por las noticias falsas entre periodistas, especialistas en propaganda y legisladores occidentales ha inspirado olas de historias y conversaciones de trabajo que abordan el crecimiento del fenómeno como una amenaza para nuestro discurso público, periodismo y sistemas de gobierno. Y vemos numerosos intentos orientados a comprender, solucionar y atribuir culpas. Pero muchas de las modificaciones propuestas son extremadamente problemáticas porque propugnan restricciones amplias e imprecisas a la libertad de expresión. Son particularmente problemáticas las soluciones que limitarían las expresiones que se sospechan son “falsas” o que alentarían firmemente a los intermediarios privados a limitar algunos tipos de discurso y priorizar o elaborar una “lista blanca”.

A mediados de marzo, Alemania fue el último país en proponer un plan que impone la obligación a las empresas de medios sociales de dar seguimiento y censurar algunos tipos de expresiones en línea. El ministro de Justicia de Alemania, Heiko Maas, pretende ejercer presión regulatoria sobre las empresas de medios sociales, especialmente Facebook y Twitter, para que controlen la expresión, pues afirma que no lo hicieron voluntariamente. El proyecto de ley prevé multas de hasta €50 millones para las empresas de medios sociales cuando incumplan su obligación de eliminar rápidamente el discurso de odio, noticias falsas, y otro discursos equivocados.

En este contexto, podemos considerar a los países que han creado regímenes regulatorios para controlar la expresión en línea —como China— como no completamente “distintos” de los demás, sino tal vez como advertencias. Al plantear soluciones para el problemas de las noticias falsas, debemos ser extremadamente cautos de no construir nuestras propias máquinas de autocensura.

Las noticias “falsas” y el rol de los estados

Muchas de las noticias falsas recientes provinieron de grupos sin vínculos con estados, pero los ejemplos de Rusia, China, Irán y muchos otros países deben recordarnos que la mayor amenaza para nuestro discurso público resulta cuando los gobiernos usan la información falsa para beneficio propio. Después de todo, los gobiernos tienen la facultad de combinar relatos cambiantes de la verdad con mecanismos de control estatales. Debemos estar especialmente atentos a los estados que limitan la expresión “falsa” de sus ciudadanos, mientras simultáneamente crean narrativas y relatos sobre sí mismos que inducen a error. Cuando los estados intentan controlar las narrativas, es hora de comenzar a buscar indicios de tiranía.

Durante los últimos 20 años, hemos visto a estados y a sus asociados usar noticias falsas en internet y desinformación como parte de agendas más generales para influir en la opinión pública con fines políticos. Ejemplos bien documentados incluyen al partido de los 50 centavos chino, las fábricas de trolls rusas, y las campañas artificiales basadas en bots contratadas por el gobierno estadounidense, todos diseñados para inundar los foros de Internet y los medios sociales con falsedades y distracciones.

Al mismo tiempo, algunos estados han tomado medidas para regular, limitar e incluso criminalizar las historias “falsas” producidas por ciudadanos y periodistas como método punitivo para controlar la expresión. En Bahréin, China, Egipto, Turquía, Rusia, Venezuela e Irán, y en otros países, ha habido casos de usuarios de medios sociales arrestados y procesados por compartir información que los gobiernos consideran falsas o basadas en información errónea. En China, la nueva normativa prohíbe el uso de “datos no verificados distribuidos a través de plataformas de medios sociales” y prohíbe a los sitios web “citar fuentes de noticias falsas o anónimas y fabricar noticias basadas en rumores, conjeturas o fantasía”.

Una reciente declaración emitida por un grupo de organizaciones intergubernamentales, que incluye al Relator para la libertad de expresión de ONU, David Kaye, discute estos esfuerzos regulatorios desde una perspectiva de las normas del derecho internacional. Hace hincapié en que la doctrina de derechos humanos internacionales protege explícitamente la expresión que pueda discrepar o contrarrestar posturas gubernamentales, incluso cuando es materialmente inexacta. Los enfoques regulatorios y técnicos destinados a reducir la cantidad de noticias falsas deben, en su opinión, continuar protegiendo la diversidad y riqueza de discurso. Escriben:

the human right to impart information and ideas is not limited to “correct” statements…the right also protects information and ideas that may shock, offend and disturb, and that prohibitions on disinformation may violate international human rights standards, while, at the same time, this does not justify the dissemination of knowingly or recklessly false statements by official or State actors…

el derecho humano a difundir información e ideas no está limitado a las afirmaciones “correctas”… el derecho también protege la información e ideas que pueden impactar, ofender o perturbar, y las prohibiciones en materia de desinformación pueden violar normas internacionales de derechos humanos, aunque, al mismo tiempo, esto no justifica que organismos oficiales o estatales difundan declaraciones falsas a sabiendas o de modo temerario…

¿Cuál es el problema, exactamente?

Las consecuencias en la vida real de las noticias falsas no son claras. Un reciente estudio del proyecto de investigación del MIT / Harvard Media Cloud (con el que Global Voices está asociado), dirigido por Yochai Benkler y Ethan Zuckerman, examina los efectos de las fuentes de información de derecha en Estados Unidos El estudio sugiere que en lugar de retorcerse las manos mostrando preocupación acerca de las “noticias falsas”, debemos centrarnos en las redes de desinformación que están aisladas de la corriente principal de las conversaciones públicas. Benkler y sus colegas cuestionan la idea de que “Internet como tecnología sea lo que fragmenta el discurso público y polariza opiniones” y en cambio argumentan que “las decisiones humanas y las campañas políticas, y no el algoritmo de una empresa “son los factores con mayores probabilidades de influir en la construcción y difusión de la desinformación.

Sin embargo, los proyectos que buscan controlar las noticias falsas marchan viento en popa. Estos esfuerzos tienen potencial para afectar cuál información está disponible fácilmente para el público, y si no tenemos cuidado, incluso podríamos disminuir nuestros derechos de expresión. Los enfoques habitualmente se clasifican en tres categorías amplias:

  • Los orientados a corregir el discurso en línea impulsando tecnologías que controlan o censuran algunas categorías de discurso.
  • Los orientados a corregir al público enseñándonos a distinguir los hechos de las falacias.
  • Los orientados a corregir al periodismo, generalmente con enormes transferencias de efectivo del sector tecnológico.

Cabe destacar que todos estos enfoques se centran en mitigar los efectos en lugar de afrontar los incentivos económicos o técnicos subyacentes en la estructura de los medios, o los más amplios incentivos sociales, económicos y políticos que motivan el discurso.

Enfoques orientados a corregir el discurso en línea

En su intento de diseñar sistemas para gestionar las noticias falsas, las empresas de tecnología van a terminar elaborando sistemas para vigilar y controlar el discurso. Rápidamente descubriremos que necesitan recurrir cada vez más a un análisis semántico minucioso, cuidadoso y por lo tanto continuamente actualizado con el fin de detectar y restringir la expresión.

Estas soluciones propuestas para la cuestión de las noticias falsas serían en parte tecnológicas, basadas en la inteligencia artificial y el procesamiento de lenguaje natural. Estas soluciones automatizarán la tarea de búsqueda y marca de ciertos términos, las asociaciones de palabras, y formulaciones lingüísticas. Pero el lenguaje es más maleable que el algoritmo, y pronto encontraremos que la gente inventa términos y locuciones alternativos para expresar sus propósitos.

Lo escurridizo del lenguaje podría hacer que la búsqueda del discurso “falso” u ofensivo se convierta en un fin en sí mismo. Ya lo hemos visto en la búsqueda de comentarios “tóxicos” en un reciente proyecto llamado Perspective, diseñado por Jigsaw de Google, y otras iniciativas que seguramente seguirán.

Las empresas probablemente complementen sus procesos automatizados con supervisión humana –desde usuarios de medios sociales que marcan contenido sospechoso a ejércitos rentados que interpretan esas marcas e implementan restricciones. Sumado a esto, tal vez, existirán circuitos de retroalimentación, defensores del pueblo, procesos legales y controles a los censores. Esos sistemas ya están funcionando para combatir el terrorismo, los casos extremos de incitación al odio, la extrema violencia, la pornografía infantil y contenidos que incluyan desnudos o cuyo propósito sea generar excitación sexual. Estos mecanismos pueden ser perfeccionados y ampliados para vigilar otros tipos de expresión.

La mayoría de las soluciones propuestas en este sentido no reconocen que los incentivos tecnológicos que fomentan las noticias falsas son las mismas fuerzas que actualmente financian la industria de los medios digitales –es decir, tecnología publicitaria disfrazada como contenido editorial.

Doc Searls, teórico de internet, llama a esto “adtech”, haciendo hincapié en que se trata de una forma de marketing directo o de correo basura. El aumento de las noticias falsas es impulsado en parte por organizaciones que buscan ganancias o influencia política creando historias sensacionales y engañosas para un público altamente polarizado. Los productores de este contenido se benefician con un sistema ya diseñado para segmentar y movilizar audiencias con fines comerciales. Ese sistema incluye el seguimiento de los hábitos de consumo, la publicidad dirigida, el marketing directo y la creación de productos editoriales que apelan a segmentos específicos de consumidores. Estas fuerzas se unen en una danza de incentivos editoriales y publicitarios que conducen a mayor polarización y segmentación.

Enfoques orientados a corregir al público

El próximo enfoque –autocorrección– se basa en la idea victoriana de que nuestros sistemas de medios funcionarían si la gente se comportara del modo en que los diseñadores de los sistemas esperan. Soluciones como campañas de alfabetización mediática, educación pública, comprobación de hechos, tácticas de convocar y avergonzar, dietas de medios, listas blancas de medios aprobados: todas requieren que nos culpemos por no refrenar nuestros apetitos. No es incorrecto plantear que tenemos cierta propensión a sucumbir ante la estrategia de los medios de ofrecer inyecciones de endorfinas para engancharnos en noticias sensacionalistas y triviales, o que la educación es importante para un civismo sano. Sin embargo focalizar la culpa principalmente en las personas culpar a la víctima, es en cierto modo.

Enfoques orientados a corregir al periodismo

El tercer enfoque, destinar más recursos para mejorar el periodismo, es un ejemplo de cómo la comunidad periodística aprovecha la oportunidad para reafirmar su experiencia y valor. Aunque indudablemente la existencia de medios de comunicación más proactivos y con mejores recursos es fundamental para la salud de nuestra vida cívica a largo plazo, las conversaciones sobre el periodismo tienen que comenzar con el déficit de confianza que muchos equipos periodísticos han acumulado a lo largo de las últimas décadas. Tal déficit es consecuencia precisamente de presentar reportajes cada vez más sensacionalistas y simplistas, de tratar a las noticias como entretenimiento, y del impulso corporativo para maximizar los beneficios por sobre los intereses de los espectadores y lectores.

Teniendo en cuenta que el modelo de negocio de los medios capitalistas, liberales consiste principalmente en la venta de audiencia a los anunciantes, no deberían sorprenderse al descubrir que los que somos vendidos estamos comprendiendo mejor el enfoque. Y aunque los esfuerzos para fortalecer el periodismo y la confianza del público en los medios de comunicación son importantes y muy necesarios, no van a hacer que las noticias falsas desaparezcan.

Entonces, ¿de qué estamos hablando?

Los enfoques que se basan en herramientas tecnológicas y los que dependen de supervisión humana destinados a controlar las expresiones en línea inexactas propuestos hasta la fecha en su mayoría no abordan las causas sociales, políticas y comunales que subyacen en los discursos falsos y de odio. En cambio, buscan limitar conductas y controlar efectos, y dependen de los buenos oficios de nuestros intermediarios tecnológicos para ese servicio. No nos exigen analizar en mayor profundidad la construcción social y política de nuestras comunidades. No examinan ni proponen soluciones para combatir el odio, la discriminación y los prejuicios en nuestras sociedades, en cuestiones tales como la disparidad de ingresos, la planificación urbana, las oportunidades educativas, o, de hecho, nuestras estructuras de gobierno.

Tales enfoques resultan frustrantes, ya los hemos visto antes, en los esfuerzos para reducir el “extremismo” en línea, y también de dudosos resultados. Los proyectos que buscan combatir el extremismo violento (CVE por su sigla en inglés) tienen fallas de definición similares en cuanto a la naturaleza del problema, pero eso no impide que los gobiernos diseñen soluciones equivocadas. Como ejemplo, basta mirar los numerosos proyectos de contranarrativas como “Welcome to ISIS Land” (Bienvenido a la tierra de ISIS), financiado por el Departamento de Estado norteamericano. Estos proyectos, con el apoyo de gobiernos, organizaciones internacionales y empresas, buscan aplicar una gran variedad de enfoques técnicos, de comunicaciones y basados en políticas para controlar el extremismo.

David Kaye, en una declaración previa conjunta sobre CVE, destacó el “fracaso para proporcionar definiciones de términos clave, como “extremismo” o “radicalización”. “Sin una definición clara, estos términos pueden ser utilizados para restringir una amplia gama de discursos legales”, y aun así causar daños colaterales, con la vigilancia y el seguimiento generalizado que nos lleva a todos nosotros a la autocensura, lo que resulta en menor diálogo y participación ciudadana.

¿Cómo podemos empezar a abordar los mayores desafíos, aquellos que se encuentran más allá de simples soluciones tecnológicas o del sentimiento de culpa? No hay soluciones fáciles para las desigualdades económicas y sociales que generan divisiones, y los incentivos económicos y tecnológicos que sustentan nuestro actual ecosistema de información están profundamente arraigados. Sin embargo, necesitamos encontrar un modo de iniciar conversaciones serias sobre estos desafíos sistémicos, en lugar de entretenernos con sus efectos o simplemente asignar responsabilidades a los nuevos actores.

Sir Tim Berners-Lee, el inventor de la Internet, nos insta a reformar los sistemas y modelos de negocio que hemos creado para financiar nuestras vidas en línea. Señala, por ejemplo, la utilización de datos personales por las empresas como el factor impulsor de la creación de sociedades de vigilancia, que ejerce efectos desalentadores sobre la libertad de expresión. Sugiere buscar alternativas a la concentración de la atención y el poder en manos de un pequeño número de compañías de medios sociales que lucran mostrándonos contenido “sorprendente, chocante, o diseñado para apelar a nuestros prejuicios”. Le preocupa el uso de estas mismas tácticas en la propaganda política, y su efecto en nuestros sistemas de política electoral.

Enfrentar nuestras desigualdades sociales y económicas es aun más difícil. El desafío de nuestro tiempo es encontrar el lenguaje para llevar adelante un debate honesto y franco sobre cómo construimos nuestras economías y nuestros estados, el modo en que distribuimos beneficios, y cuáles son nuestros valores guía. Construir comunidades cívicas basadas en la confianza, tanto en línea como en el mundo real, es una tarea necesaria, constante y fundamental para las conversaciones públicas sobre nuestro futuro colectivo.

No es una ironía sin importancia que los sistemas de comunicaciones que hemos construido para apoyar ese debate estén en peligro, la amenaza proviene de quienes detonarían las normas sociales de discurso cívico para sus fines ideológicos, y de los consiguientes intentos de controlar el discurso extremo o engañoso. Es fácil detectar fallas en las tecnologías que facilitan nuestra vida cívica colectiva. Es mucho más difícil observar nuestra vida cívica en su conjunto y determinar si puede estar fallando y cómo.

Inicie la conversación

Autores, por favor Conectarse »

Guías

  • Por favor trate a los demás con respeto. Comentarios conteniendo ofensas, obscenidades y ataque personales no serán aprobados.