¿Lo ves?: Cómo la tecnología agrava el «trastorno de la información»

Two pink birds with strings of emails beneath them. Image by Liz Carrigan and Safa, with visual elements from Alessandro Cripsta, used with permission.

Imagen de Liz Carrigan y Safa, con elementos visuales de Alessandro Cripsta, usada con autorización.

Este artículo de Safa es parte de la serie “Digitized Dividesy se publicó originalmente en Tactical Tech. Global Voices reproduce una versión editada en virtud de un acuerdo de colaboración.

Las redes sociales han sido una herramienta clave para que muchos que pertenecen a comunidades tradicionalmente discriminadas puedan informarse y conectarse. Los jóvenes tienen acceso a comunidades importantes que a menudo no les son accesibles en la vida real, como espacios que aceptan a la comunidad LGBTQ+. En palabras de un adolescente, “toda mi vida, me acosaron incansablemente. Sin embargo, cuando estoy en línea, me resulta más fácil hacer amistades. […] Si no fuera por eso, hoy no estaría aquí». Pero según especialistas, las redes sociales han sido «lo mejor […] y a la vez lo peor» que le sucedió a la comunidad trans, ya que los discursos de odio y las agresiones verbales han traído consecuencias trágicas en la vida real. “Los estudios a la fecha plantean que las redes sociales pueden ser un arma de doble filo para jóvenes LGBTQ+, que puede reducir o aumentar el riesgo de problemas de salud mental o abusos de sustancias».

En enero de 2025, Mark Zuckerberg anunció que Meta (incluidos Facebook e Instagram) reemplazaría el programa de verificación de datos independiente con el modelo de «notas de la comunidad» de X (antes Twitter). La decisión de Meta incluyó terminar con las normas que protegían a los usuarios LGBTQ+. La desinformación es un problema presente en todas las plataformas de redes sociales, reforzada e impulsada por el diseño de aplicaciones, ya que quien más recibe clics e interacciones gana más, ya sea atención o dinero. Según estudios realizados, “el 15% de los usuarios de Facebook más habituales estuvieron a cargo del 37% de los titulares falsos que se estudiaron, lo que lleva a pensar que un número relativamente pequeño de personas puede tener un impacto desmesurado en el ecosistema de la información».

La promesa de Meta de deshacerse de su programa de verificación de datos independiente activó las alarmas entre periodistas, organizaciones de derechos humanos e investigadores. El alto comisionado de Naciones Unidas para los Derechos Humanos, Volker Türk, dijo al respecto: “Permitir discursos de odio y contenido dañino en línea tiene consecuencias en el mundo real”. Meta ha sido acusada de promover el genocidio rohinyá en Myanmar y de fomentar la violencia étnica en Kenia, Etiopía y Nigeria, al menos parcialmente, por desinformación incontrolable difundida en la plataforma.

“Existen pruebas de diversas fuentes de que los discursos de odio, los discursos políticos polarizados y la desinformación en Facebook … están afectando a las sociedades en todo el mundo», reveló un informe interno filtrado de Facebook en 2019. “También hay evidencia sólida de que las características de nuestro producto central, como la viralidad, las recomendaciones y la búsqueda de participación, son una de las razones fundamentales por las que este tipo de discursos prosperan en la plataforma». La red internacional de verificación de datos respondió al cese del programa de verificación de datos de Facebook después de nueve años en una carta abierta, poco después del anuncio de Zuckerberg en 2025. Declararon que “la decisión de Meta de terminar con el programa de verificación de datos independiente es un retroceso para quienes quieren ver un internet que prioriza la información precisa y confiable”.

Publicaciones incomprobables, cronologías distorsionadas

Los algoritmos detrás de las redes sociales deciden qué información priorizar, repetir y recomendar a cada persona en su cronología y resultados de búsqueda. Pero, a pesar de todos los informes, estudios y cambios en los comportamientos de los usuarios, las propias empresas no han hecho mucho para adaptar el diseño de su interfaz para ponerse al día con las formas de interacción modernas y facilitar la verificación de datos relevante para los usuarios.

Cuando los medios hacen publicaciones para rectificar la información falsa que publicaron o noticias no corroboradas que difundieron, no alcanza para reparar el daño. Como lo describió First Draft News: “Es muy, muy difícil quitar [la desinformación] del cerebro”. Cuando la información falsa se publica en línea o en las noticias y empieza a circular, aunque se elimine al cabo de apenas minutos u horas, «el daño ya está hecho», podría decirse. Rara vez se presta tanta atención a las rectificaciones o aclaraciones como a la noticia falsa original y, aunque lleguen a leerse, es posible que no se las internalice.

Los algoritmos son tan comunes que, a simple vista, pueden parecer triviales, pero en realidad son sumamente significativos. Historias populares como la del padre que se enteró del embarazo de su hija por medio de lo que era básicamente un algoritmo, o la de otro padre cuyo resumen del año de Facebook “celebró” la muerte de su hija, demuestran que quienes crean, desarrollan y diseñan contenido curado por algoritmos deberían tener en cuenta los posibles escenarios negativos. Los casos extremos, aunque poco frecuentes, son relevantes y requieren inspección y moderación.

Para impulsar al público más allá, numerosos informes y estudios descubrieron que las recomendaciones por algoritmos en las redes sociales pueden radicalizar las audiencias a partir del contenido que priorizar y ofrecen. “La indignación moral, específicamente, quizás es el tipo de contenido más poderoso en internet”. Un estudio de 2021 reveló que el algoritmo de TikTok llevaba a los usuarios desde videos transfóbicos hasta contenido violento de ultraderecha, que incluía mensajes racistas, misóginos y capacitistas. «Según nuestra investigación, la transfobia puede ser un punto de partida del prejuicio, que lleva a radicalizar hacia la ultraderecha». También se llegó a apodar a YouTube “máquina de radicalización” y parece que aún hay problemas con sus sistemas de recomendación, como se ve en el reciente informe que muestra que YouTube Kids mete a sus usuarios jóvenes en un laberinto de contenido sobre trastornos alimentarios. Antes de las elecciones de 2025 en Alemania, las investigaciones descubrieron que el contenido en distintas plataformas, especialmente TikTok, priorizaba a la derecha.

Desgaste de la credibilidad

Cada vez más personas buscan informarse de distintas maneras, más allá de los medios tradicionales de noticias. Un informe de 2019 reveló que los adolescentes se informaban mayormente a través de las redes sociales. En 2022, un artículo explicó que muchos adolescentes usan más TikTok que Google para buscar información. En ese mismo año, otro estudio analizó que los adultos menores de 30 confían en la información que ven en redes sociales casi tanto como en la que muestran los medios periodísticos nacionales. Un informe internacional de 2023 demostró que menos de la mitad (40%) del total de los encuestados «confía en la mayoría de las noticias la mayor parte del tiempo». Los investigadores advirtieron que el recorrido de los trastornos de la información podía tener como consecuencia que los Gobiernos tomen constantemente el control de la información, y añadieron que «acceder a pilas tecnológicas de alta concentración se convertirá en una herramienta cada vez más esencial de poder blando para ayudar a las potencias a solidificar su influencia».

En las elecciones de 2024 en Indonesia, los avatares generados con IA tuvieron un papel protagónico, especialmente para llamar la atención de los más jóvenes. El excandidato y ahora presidente Prabowo Subianto utilizó un tierno avatar creado con IA generativa en su contenido de redes sociales, TikTok inclusive, y logró transformar completamente su imagen pública y ganar las elecciones, distrajo de las acusaciones de serios abusos contra los derechos humanos que había recibido. La IA generativa, incluidos chatbots como ChatGPT, también es un factor clave en la desinformación por lo realista y convincente de las imágenes y textos que produce.

Incluso el contenido aparentemente inofensivo en páginas basura como el “Jesús de Camarones” puede tener consecuencias en la vida real, como desgaste de la confianza, estafas y filtración de datos que retroalimenta los sistemas e impulsa la influencia digital. Además, los resultados de la IA generativa pueden estar sumamente controlados. «Los sistemas automatizados han permitido a los Gobiernos llevar a cabo formas de censura más precisas y sutiles», según expone un informe de Freedom House de 2023. “Quienes crean desinformación utilizan imágenes, audio y textos generados con IA y hacen que la verdad sea más fácil de distorsionar y más difícil de discernir».

Como se ha dicho una y otra vez en esta serie, la tecnología no es ni buena ni mala. Depende del uso que se le dé. “La tecnología hereda las ideologías de sus autores, pero casi todas las tecnologías se pueden emplear de modos que van más allá de ese marco». Estos diversos usos y comparaciones pueden ser útiles al debatir herramientas y métodos específicos, pero solo superficialmente. Por ejemplo, en relación a los avatares que se mencionaron en este artículo.

Un ejemplo clave es el de Venezuela, donde los medios están plagados de mensajes oficialistas generados con IA y quienes se dedican al periodismo reciben amenazas de encarcelamiento. Ante esta situación, los periodistas han utilizado avatares para proteger su identidad y su privacidad. Esa es sin duda una historia de resiliencia, pero es parte de un contexto mayor y más perverso de poder y castigo. Si bien cada herramienta específica puede traer beneficios e inconvenientes según se use, alejarse y echar un vistazo al escenario completo revela sistemas y estructuras de poder que ponen en peligro a las personas, y muestra que los compromisos de la tecnología no son para nada simétricos.

Dos verdades pueden existir al mismo tiempo, y el hecho de que la tecnología se use para unir fuerzas y también para dañar y oprimir a las personas es importante.

Inicia la conversación

Autores, por favor Conectarse »

Guías

  • Por favor, trata a los demás con respeto. No se aprobarán los comentarios que contengan ofensas, groserías y ataque personales.