Narrativas de inteligencia artificial: Informe de Global Voices

Imagen creada por Giovana Fleck, usada con autorización.

Este informe es parte de Data Narratives, proyecto del Observatorio de Medios Cívicos que tiene como objetivo identificar y comprender el discurso sobre los datos utilizados para la gobernabilidad, el control y las políticas en El Salvador, Brasil, Turquía, Sudán e India. Lee más sobre el proyecto aquí y vea nuestros datos públicos

Actores poderosos, Gobiernos y corporaciones están dando forma activamente a las narrativas sobre inteligencia artificial (IA) para presentar aspectos relevantes de la sociedad y la gobernabilidad. Estas narrativas ayudan a establecer cuál es la creencia generalizada y que es lo que en realidad debería considerarse normal o inevitable acerca del despliegue de la IA en la vida cotidiana, desde la vigilancia hasta la toma de decisiones automatizada. Aunque los mensajes públicos enmarcan los sistemas de IA como herramientas para el progreso y la eficiencia, estas tecnologías se están utilizando cada vez más para vigilar a las poblaciones y reducir la participación política de los ciudadanos de diversas maneras. Este desafío narrativo de la IA se complica por los distintos valores culturales, planes y conceptos que influyen en cómo se discute la IA a nivel global. Considerar estas diferencias es fundamental en contextos en los que los datos agravan las inequidades, injusticias o gobernabilidad no democrática. A medida que Gobiernos con historiales de represión siguen adoptando estos sistemas, se vuelve crucial que las organizaciones de la sociedad civil comprendan y contrarresten narrativas sobre la IA que legitiman aplicaciones antidemocráticas de estas herramientas.

Nos basamos en los cimientos establecidos por el Unfreedom Monitor para llevar a cabo nuestra investigación sobre narrativas de datos en cinco países que enfrentan diferentes amenazas para la democracia: Sudán, El Salvador, India, Brasil y Turquía. Para comprender mejor las relaciones de estos países con la IA, los incentivos y las estrategias de protección del interés público, es útil contextualizar la IA como una narrativa de datos. La gobernabilidad de la IA implica, inherentemente, la gobernabilidad de los datos y viceversa. Los sistemas de IA dependen de enormes cantidades de datos para su ejercicio y operación, mientras que los sistemas de IA adquieren legibilidad y valor a medida que se integran ampliamente en funciones cotidianas que luego generan las grandes cantidades de datos que necesitan para funcionar.

La terminología de IA como narrativa y como obstáculo

El término inteligencia artificial en sí mismo es controvertido. Las definiciones convencionales de inteligencia artificial, como la establecida por la Ley de IA de la Unión Europea, intentan dar a los responsables políticos el alcance necesario para establecer políticas de gobernabilidad efectivas; sin embargo, estos intentos casi siempre quedan cortos pues excluyen inadvertidamente algunos sistemas de supervisión por la variabilidad en las formas y funciones de los llamados sistemas inteligentes en general. Las aproximaciones para definir la inteligencia artificial varían aún más según el campo de estudio. Esto se ilustra con los datos de encuestas en los que los científicos informáticos se centran en las funciones técnicas del sistema, mientras que los responsables políticos se centran en las conexiones metafóricas de los aspectos del sistema que creen son similares al pensamiento y comportamiento humanos. Esto demuestra cómo incluso el término inteligencia artificial tiene una narrativa particular. Comenzamos a entenderlo aceptando los usos amplios en los medios populares junto con los basados en el Gobierno y en la investigación.

La diversidad global en la terminología de las narrativas de IA refleja la variación internacional en los valores y en las prioridades culturales. Muchos idiomas atribuyen la palabra «inteligencia» a estos sistemas, pero las culturas difieren en cuanto a sus conceptos sobre lo que implica esa inteligencia. El simple uso del término «inteligencia» atribuye cualidades humanas a la tecnología, lo que puede crear una falsa sensación de que la IA es autónoma y poderosa, en lugar de verla como una herramienta desarrollada y controlada por actores humanos. Los descriptores antropomórficos de la IA pueden opacar la organización subyacente y los intereses comerciales detrás de su desarrollo y engañar al público al inducirlo a generar inferencias incorrectas sobre cómo funciona la tecnología y si resulta confiable en determinadas situaciones de uso. En consecuencia, las narrativas de IA que emplean descripciones antropomórficas pueden dificultar la crítica pública de los sistemas de IA.

El lenguaje que atribuye más inteligencia de la que un sistema puede tener se entiende bajo las narrativas de planteamiento corporativo que comercializan estas herramientas. Dado que los sistemas de IA avanzada, particularmente la IA generativa, requieren recursos computacionales masivos e infraestructura que muy pocas empresas pueden pagar, el poder sobre el desarrollo de la IA se ha concentrado en las empresas denominadas Big Tech, como Google y Microsoft. Este dominio técnico le da a esas compañías una ventaja sobre las narrativas acerca de los sistemas de IA, e impulsa relatos que sugieren que el control privilegiado sobre esta tecnología redunda en beneficio del público ya que prometen democratizar la IA para el uso de todos. Es más, estos modelos son sumamente incapaces de democratizar el conocimiento de manera equitativa, ya que estas tecnologías no pueden distinguir entre hechos y ficciones en sus resultados para justificar incluso una definición liberal de «conocimiento», y porque ofrecen respuestas diferentes a diferentes personas por la naturaleza de la información de identidad codificada en el discurso de los usuarios. La popularidad de la IA generativa amplía aún más la influencia corporativa estadounidense en otros países, moldea los temas que se plantean y el diálogo en las plataformas de redes sociales y determina qué investigaciones se financian.

Enmarcar los sistemas de IA como inteligentes se complica aún más y se entrelaza con narrativas vecinas. En Estados Unidos, las narrativas de IA suelen girar en torno a temas opuestos, como la esperanza y el miedo, con lo que unen dos emociones fuertes: temores existenciales y aspiraciones económicas. En ambos casos, proponen que la tecnología es poderosa. Estas narrativas contribuyen al amplio despliegue mediático en torno a las herramientas de IA y su impacto potencial en la sociedad. Algunos ejemplos incluyen:

Muchas de estas narrativas suelen presentar a la IA como una fuerza imparable y en acelerado crecimiento. Si bien esta narrativa puede generar entusiasmo e inversiones en investigación, también puede contribuir a una sensación de determinismo tecnológico y a la falta de un compromiso crítico con las consecuencias de la adopción generalizada de IA. Existen numerosas contranarrativas que abordan temas como la vigilancia, la erosión de la confianza, el sesgo, el impacto en el empleo, la explotación laboral, los usos de alto riesgo, la concentración del poder y los impactos ambientales, entre otros.

Estos marcos narrativos, combinados con el lenguaje metafórico y las imágenes utilizadas para describir la IA, contribuyen a la confusión y a la falta de conocimiento público sobre la tecnología. Al posicionar la IA como una herramienta transformadora, inevitable y necesaria para el éxito nacional, estas narrativas pueden moldear la opinión pública y las decisiones políticas, a menudo en formas que prioricen su adopción rápida y su comercialización.

Las narrativas principales que encontramos en nuestra investigación

Puedes hacer clic en la siguiente tabla para navegar a través de las narrativas que investigamos y describimos en la siguiente sección:

Brasil

La discusión sobre la IA en Brasil está principalmente centrada en medidas regulatorias y ha ganado impulso porque Brasil fue el anfitrión del G20 de 2024 y llevó a cabo una serie de preparativos y eventos paralelos relacionados con temas de gobernabilidad de datos, como el NetMundial+10. La principal regulación discutida fue el Proyecto de Ley 2338/2023, que busca establecer normas nacionales para el desarrollo, la implementación y el uso responsable de los sistemas de IA. Además de este proyecto de ley, también existen propuestas legislativas específicas por sectores, como las que criminalizan el contenido pornográfico ultrafalso y acciones dirigidas, como las resoluciones de 2024 del Tribunal Superior Electoral sobre IA y elecciones.

En este contexto, nuestra investigadora identificó tres narrativas esenciales. La primera, Brasil necesita mantenerse a la vanguardia en la regulación de nuevas tecnologías, refleja el deseo del gobierno actual de izquierda de Brasil y de miembros de la sociedad civil de retomar el liderazgo en la regulación de nuevas tecnologías, como se hizo en 2014 con el «Marco civil de internet» (Marco civil de los derechos humanos para internet en Brasil). La segunda narrativa, Brasil debe regular la IA para evitar quedar rezagado, también tiene un sentido de urgencia para la regulación, pero promovida por la derecha conservadora, el Partido Liberal (PL), y prioriza crear un entorno de negocios seguro que favorezca la innovación en IA. La tercera narrativa, regular la IA perjudica la innovación en Brasil, impulsada por la derecha neoliberal del país, difunde la idea de que regular la IA obstaculizará el desarrollo de la industria de IA en Brasil.

India

En noviembre de 2023, un video ultrafalso de la actriz Rashmika Mandann circuló en redes sociales y generó un diálogo significativo en India sobre la regulación de la IA. La confirmación de la manipulación de imágenes dio lugar a debates sobre el papel del Gobierno en el control de material ultrafalso y la mitigación del daño potencial. Este debate se extendió a preocupaciones sobre el impacto de la IA en las elecciones, lo que llevó al Gobierno a advertir a las plataformas sobre el material ultrafalso de IA y a emitir un aviso para autorregular y etiquetar contenido generado por IA. Estas medidas siguieron a los discursos públicos del primer ministro, Narendra Modi, que enfatizó las amenazas planteadas por este material ultrafalso y su potencial daño a los ciudadanos.

Durante la primera etapa de la discusión, justo después de la publicación del video, nuestra investigadora rastreó dos narrativas principales. La primera, el Gobierno indio está comprometido en hacer que internet sea segura para sus ciudadanos, promocionaba las acciones generales del Gobierno en forma de regulación para abordar la desinformación, el discurso de odio y el acoso en línea. La segunda narrativa, la respuesta del Gobierno indio al material ultrafalso es confusa y reactiva, propuesta por organizaciones como la Fundación para una Internet Libre, cuestionaba las medidas reactivas del Gobierno y consideraba que se habían tomado sin una evaluación exhaustiva de los diferentes problemas involucrados.

Posteriormente, nuestra investigadora identificó tres narrativas adicionales cuando el enfoque se trasladó a las elecciones. Las dos primeras, el material ultrafalso de IA lo usarán los activistas antinacionalistas, y los creadores de material ultrafalso y las plataformas que los alojan son los impulsores reales de la manipulación electoral, propuestas por el Gobierno, tienen como objetivo culpar a los partidos de la oposición, a las plataformas de redes sociales y a las personas detrás de la creación de videos ultrafalsos por la desinformación sobre IA y la falta de una regulación firme que aborde el tema. La tercera narrativa, la solución para la desinformación sobre IA en India debería ir mas allá de prohibir y eliminar contenido, también promovida por organizaciones como la Fundación por una Internet Libre, demanda una respuesta más eficiente del Gobierno que considere que haya responsables políticos y refuerzo del sistema de medios.

Sudán

La guerra civil en Sudán, que se inició en abril de 2023, ha afectado profundamente todos los aspectos de la sociedad sudanesa. En mayo de 2023, las Fuerzas Armadas de Sudán (FAS) usaron televisión nacional para difundir información falsa, afirmaron que un video de Mohamed Hamdan Dagalo (Hemedti), comandante de las Fuerzas de Apoyo Rápidas (FAR), había sido generado por IA y que Hemedti estaba muerto. Sin embargo, Hemedti reapareció en julio de 2023 en un video grabado con sus equipos, publicado por las FAR en X (antes Twitter), que utilizaron los seguidores de las FAS para reforzar la narrativa de su muerte, con el argumento de las FAR usan el material ulfrafalso para el engaño militar. En enero de 2024, la credibilidad de las FAS se vio dañada cuando Hemedti apareció en público con varios líderes africanos durante una gira por la región.

En medio de esta «armamentización» de la IA, nuestra investigadora identificó tres narrativas clave. La primera, como se mencionó anteriormente, las FAR utilizan material ultrafalso para el engaño militar, promovida por las FAS y sus seguidores, tiene como objetivo desacreditar a las FAR al vincularlas con el material ultrafalso de IA y acusarlas de engañar a la gente y de hacerles creer que su comandante, Hemedti, sigue vivo. La segunda narrativa, Emiratos Árabes Unidos e Israel usan IA para imponer sus planes en Sudán, lo que favorece a las FAR y daña la reputación de las FAS. Israel y Emiratos Árabes Unidos han reforzado su cooperación en innovación en IA, lo que se ha expandido tras su acuerdo de paz en los Acuerdos de Abraham. Las FAR, que tienen fuertes lazos con Emiratos Árabes Unidos, han buscado antes establecer relaciones independientes con Israel fuera de los canales oficiales del Estado.

La tercera narrativa, las FAR no usan material ultrafalso para el engaño militar, defendida por las FAR y sus seguidores, contraataca las acusaciones de las FAS y niega el uso de ultrafalsos para el engaño militar en sus operaciones en línea.

Turquía

En Turquía, el entusiasmo es un factor dominante cuando se discute la IA, pero a menudo se malinterpreta y se trata como si fuera una solución mágica. Muchas entidades del sector público y privado recurren a la IA para proyectar una imagen de avance tecnológico, progreso y objetividad, y la utilizan como una defensa contra acusaciones de sesgo o atraso. Sin embargo, el optimismo contrasta fuertemente con las experiencias frustrantes o abusivas que muchas personas en Turquía tienen con la IA en su vida diaria.

En este choque de percepciones, nuestra investigadora identificó dos narrativas. La primera, la inteligencia artificial es imparcial y, por sí sola, puede resolver muchos de los problemas de los turcos, promovida por el partido gobernante, la oposición e incluso la federación de fútbol del país. Presenta a la IA como imparcial, objetiva y superior a los sistemas creados por humanos, independientemente de por qué, cómo o dónde se utilice. La segunda narrativa, la inteligencia artificial causa más problemas que soluciones, afirmada implícitamente, muestra las amenazas del uso de la IA, que incluyen exacerbación de problemas sociales existentes y creación de problemas nuevos.

La brecha en la conversación

Las narrativas identificadas por nuestros investigadores también muestran los temas ausentes en las conversaciones. El caso más evidente es en El Salvador, donde no se encontraron narrativas clave que discutan la IA. Nuestra investigación indica que los temas de gobernabilidad de datos que prevalecen en el diálogo social de El Salvador son principalmente las políticas sobre criptomonedas y cuestiones de protección de datos.

La protección de datos también es un tema en la discusión sobre gobernabilidad de datos en India, Sudán y Turquía. Sin embargo, en ninguno de esos países, las preocupaciones sobre la filtración o el mal uso de los datos personales están vinculadas a la IA. No parece haber ninguna conversación sobre la fuente de los datos utilizados para respaldar los sistemas de IA y las consecuencias que eso puede o no tener sobre la privacidad de las personas, incluso en países donde se están discutiendo posibles regulaciones. Lo mismo ocurre con las discusiones sobre los posibles impactos de la IA en el empleo: no se encuentran narrativas locales que debatan las amenazas o las oportunidades que la IA puede presentar para las personas en sus lugares de trabajo.

Las narrativas que trazamos en nuestra investigación también dan poco optimismo o asociaciones positivas claras con la IA. Solo en Turquía se presenta la IA como una herramienta efectiva, aunque principalmente se mistifica y se usa en el discurso y como una táctica de comunicación para enmascarar ineficiencias.

El trabajo de nuestros investigadores también muestra que no existen narrativas influyentes en las sociedades de los países estudiados que aborden los posibles impactos que la IA pueda tener en las capacidades militares o policiales de esos países, a diferencia de lo que ocurre en Estados Unidos. Solo en Turquía y El Salvador nuestros investigadores encontraron conversaciones activas sobre el posible espionaje por parte de sus Gobiernos. Sin embargo, en ninguno de esos incidentes, las narrativas rastreadas vinculan el tema con la IA. Lo mismo ocurrió con las violaciones de derechos humanos; no se registraron discusiones sobre cómo la IA podría evitarlas o facilitarlas.

Nuestra investigación también revela la ausencia de un debate social profundo sobre la oportunidad que la IA presenta para los líderes autoritarios que actualmente están en el poder o que desean acceder al poder. Parece haber pocas discusiones sobre si la IA podría exacerbar la noción de que no existe una verdad indiscutible y cómo ese clima de desconfianza es perjudicial para las democracias.

Conclusión: el cambio en la narrativa de IA

Las organizaciones de la sociedad civil que desean proteger la democracia y los derechos humanos deben comprender mejor las narrativas sobre la IA a nivel global. Recientemente hemos sido testigos de la primera elección influenciada por IA generativa. El autoritarismo impulsado por algoritmos y el uso de la IA para la represión es amplio, e incluye propaganda ultrafalsa, vigilancia, moderación de contenido, ciberguerra y armas basadas en IA. Existen enfoques regionales sobre amenazas específicas de la IA y políticas relacionadas con ella, pero es necesario desarrollar narrativas públicas más amplias sobre los impactos de la IA en la democracia y los derechos humanos. La investigación realizada a través del Data Narratives Observatory muestra cómo las conversaciones regionales a menudo omiten conexiones claves entre los sistemas de IA, la gobernabilidad de datos y el poder. Es necesario un cambio narrativo y crear estructuras narrativas. Ver la IA como parte de un ecosistema de datos, y no antropomorfizada como inteligencia, puede ayudar a contrarrestar las narrativas de la IA dañinas y simplificadas. Esto también puede ayudar a educar al público sobre los derechos relacionados con los datos y la IA, ya que las políticas sobre IA dependen de la gobernabilidad de los datos. Esta relación es especialmente importante cuando se considera el crecimiento de la IA y el papel que desempeña en la cadena de vigilancia.

Nuestra investigación revela importantes vacíos en el discurso global sobre la IA. En El Salvador, el diálogo social en torno a la gobernabilidad de datos se centra en las políticas de criptomonedas y la protección de datos, con poca atención a la IA. El material ultrafalso de IA y su uso en la desinformación se discuten en países como Brasil, India y Sudán, pero rara vez abordan las consecuencias de la IA para la privacidad de los datos o el empleo. El optimismo sobre la IA es poco común, excepto en Turquía, donde la IA se promociona como una solución, aunque de manera superficial. Las discusiones sobre el impacto de la IA en las capacidades militares y policiales, los derechos humanos y su potencial para apoyar regímenes autoritarios o socavar los valores democráticos están notablemente ausentes, lo que resalta la necesidad de un compromiso más amplio y crítico con los impactos sociales de la IA a nivel mundial.

Los prometedores planteamientos emergentes de gobernabilidad de la IA podrían fortalecerse con métodos que respeten el poder de las narrativas en torno a cuestiones centrales. Iniciativas comunitarias de gobernabilidad de datos e IA orientadas, como Connected by Data y redes de soberanía de datos indígenas como Te Mana Raraunga, demuestran cómo la gestión colectiva puede desafiar el control corporativo y la vigilancia estatal. Recientemente, también ha habido esfuerzos como Fostering a Federated AI Commons Ecosystem, inspirado en el trabajo de Coding Rights, que hace un llamado al G20 para apoyar un ecosistema de IA que enfatice una IA comunitaria específica para tareas, y que busque frenar el poder de los monopolios tecnológicos. La Fundación Mozilla sigue muchas más iniciativas de datos que fortalezcan a las comunidades.

Estas ideas pueden ser poderosas, pero su éxito depende del apoyo entre comunidades diversas. Las investigaciones de narrativas muestran que pueden efectivamente influir la respuesta del público, pero el desafío surge al tratar de desarrollar narrativas desde la base comunitaria. Sin un cambio deliberado, las narrativas dominantes sobre la IA podrían intensificarse y conducir a:

  • Narrativas corporativas sobre la IA que exageran la capacidad de la tecnología engañan y confunden las expectativas, lo que dificulta su regulación;
  • Una normalización de la mayor vigilancia y la pérdida de toma de decisiones por parte de los humanos, impulsada por las narrativas del estado;
  • Narrativas de IA simplistas, como las que polarizan la IA como una amenaza o como una solución, pueden distraer de la necesidad de evitar los riesgos y beneficios reales;
  • Las prácticas extractivas y la concentración del poder en el panorama de la IA seguirán siendo opacadas;
  • Las visiones alternativas de desarrollo y gobernanza de la IA centradas en la comunidad, la gestión de los datos y el trabajo en los bienes comunes de la IA lucharán por ganar fuerza.

Estos hallazgos subrayan la necesidad crítica de ampliar la investigación sobre las narrativas de IA, para documentarlas, y también para ayudar a la sociedad civil a desarrollar contranarrativas y estrategias efectivas. La documentación es fundamental para permitir que las sociedades construyan estructuras narrativas que desafíen el control corporativo y la vigilancia estatal. La mejor oportunidad de las comunidades para resistir la represión habilitada por la IA debe comprender los diferentes matices sobre cómo las comunidades conceptualizan e interpretan la IA, con el fin de crear mensajes que resuenen localmente y contribuyan a un movimiento global más amplio. Comenzamos por entender las narrativas existentes. Usamos este conocimiento para ayudar a las comunidades a reconocer y resistir el mal uso de los sistemas de IA. Así, a su vez, pueden usar esta información para avanzar en visiones alternativas de gobernabilidad de IA centradas en los derechos humanos y en los valores democráticos.

Referencias

A Is. (2021). Aisforanother.net. https://aisforanother.net/

Article 3: Definitions | EU Artificial Intelligence Act. (13 de junio de 2024). Future of Life Institute. https://artificialintelligenceact.eu/article/3/

Artificial intelligence (AI) and human rights: Using AI as a weapon of repression and its impact on human rights | Think Tank | European Parliament. (2024). Europa.eu. https://www.europarl.europa.eu/thinktank/en/document/EXPO_IDA(2024)754450

Aawsat. (22 de abril de 202). Where did Al-Burhan and “Hemedti” disappear? https://aawsat.com/home/article/4287326/%D8%A3%D9%8A%D9%86-%D9%8A%D8%AE%D8%AA%D9%81%D9%8A-%D8%A7%D9%84%D8%A8%D8%B1%D9%87%D8%A7%D9%86-%D9%88%C2%AB%D8%AD%D9%85%D9%8A%D8%AF%D8%AA%D9%8A%C2%BB%D8%9F

Bryson, J. J. (2 de marzo de 2022). Europe Is in Danger of Using the Wrong Definition of AI. Wired. https://www.wired.com/story/artificial-intelligence-regulation-european-union/

Catalysing Community Campaigns. (26 de septiembre de 2024). Connected By Data. https://connectedbydata.org/projects/2023-catalysing-communities

Center for Preventive Action. (3 de octubre de 202). Civil War in Sudan. Global Conflict Tracker; Council on Foreign Relations. https://www.cfr.org/global-conflict-tracker/conflict/power-struggle-sudan

Celso Pereira, P., Jungblut, C. (25 de marzo de 2014). Câmara aprova Marco Civil da Internet e projeto segue para o Senado. O Globo. https://oglobo.globo.com/politica/camara-aprova-marco-civil-da-internet-projeto-segue-para-senado-11984559

Chubb, J., Reed, D., & Cowling, P. (2022). Expert views about missing AI narratives: is there an AI story crisis? AI & SOCIETY. https://doi.org/10.1007/s00146-022-01548-2

D’Souza, A. A. (24 de abril de 2024). India's foray into regulating AI. Iapp.org. https://iapp.org/news/a/indias-foray-into-regulating-ai

Edsall, T. B. (5 de junio de 2024). Opinion | Will A.I. Be a Creator or a Destroyer of Worlds? The New York Times. https://www.nytimes.com/2024/06/05/opinion/will-ai-be-a-creator-or-a-destroyer-of-worlds.html

Foodman, J. (12 de agosto de 2024). Council Post: Artificial Intelligence Is Changing The World And Your Business. Forbes. https://www.forbes.com/councils/forbesbusinesscouncil/2023/07/24/artificial-intelligence-is-changing-the-world-and-your-business/

Framing AI. (12 de octubre de 2023). Rootcause. https://rootcause.global/framing-ai/

Funding Narrative Change, An Assessment and Framework. (30 de septiembre de 2022). Convergence Partnership. https://convergencepartnership.org/publication/funding-narrative-change-an-assessment-and-framework/

Future of Life Institute. (22 de marzo de 2023). Pause Giant AI Experiments: an Open Letter. Future of Life Institute. https://futureoflife.org/open-letter/pause-giant-ai-experiments/

Grossman, G., Edelman. (15 de octubre de 2023). Smarter than humans in 5 years? The breakneck pace of AI. VentureBeat. https://venturebeat.com/ai/smarter-than-humans-in-5-years-the-breakneck-pace-of-ai/

Hacking the patriarchy — Coding Rights. (4 de septiembre de 2024). Coding Rights. https://codingrights.org/en/

Halina, M., & Shevlin, H. (2019). Apply rich psychological terms in AI with care. Cam.ac.uk. https://doi.org/10.17863/CAM.37897

Hennessey, Z. (2023). Israel and the UAE join forces to accelerate AI innovation in Abu Dhabi. The Jerusalem Post. https://www.jpost.com/business-and-innovation/article-742509

İspir, E. (29 de marzo de 2023). Yapay Zekayla Müstehcen İçeriklerini Yapıp, Taciz Ettiler! “Sonuna Kadar Peşindeyim.” Onedio. https://onedio.com/haber/yapay-zekayla-mustehcen-iceriklerini-yapip-taciz-ettiler-sonuna-kadar-pesindeyim-1137454

Jain, R. (9 de mayo de 2024). ChatGPT Creator Sam Altman Feels It's A ‘Massive, Massive Issue’ That We Don't Take AI's Threat To Jobs And Economy ‘Seriously Enough’. Benzinga. https://www.benzinga.com/news/24/05/38725610/chatgpt-creator-sam-altman-feels-its-a-massive-massive-issue-that-we-dont-take-ais-threat-to-jobs-an

Javaid, U. (31 de mayo de 2024). Democratizing AI: Why Opening Wider Access To AI Is Vital. Forbes. https://www.forbes.com/councils/forbestechcouncil/2024/05/31/democratizing-ai-why-opening-wider-access-to-ai-is-vital/

Kak, A. and Myers West, S. eds. (marzo de 2024). AI Nationalism(s): Global Industrial Policy Approaches to AI. AI Now Institute. (2024). https://ainowinstitute.org/ai-nationalisms

Kak, A., Myers West, S., & Whittaker, M. (5 de diciembre d e2023). Make no mistake—AI is owned by Big Tech. MIT Technology Review. https://www.technologyreview.com/2023/12/05/1084393/make-no-mistake-ai-is-owned-by-big-tech/

Kalluri, Pratyusha Ria, Agnew, W., Cheng, M., Owens, K., Soldaini, L., & Birhane, A. (17 de octubre de 2023). The Surveillance AI Pipeline. ArXiv.org. https://arxiv.org/abs/2309.15084

Khanal, S., Zhang, H., & Taeihagh, A. (27 de marzo de 2024). Why and How Is the Power of Big Tech Increasing in the Policy Process? The Case of Generative AI. Policy & Society (Print). https://doi.org/10.1093/polsoc/puae012

Krafft, P. M., Young, M., Katell, M., Huang, K., & Bugingo, G. (7 de febrero de 2020). Defining AI in Policy versus Practice. Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society. https://doi.org/10.1145/3375627.3375835

Lakhani, K. (4 de agosto de 2023). AI won’t replace humans — but humans with AI will replace humans without AI. Harvard Business Review. https://hbr.org/2023/08/ai-wont-replace-humans-but-humans-with-ai-will-replace-humans-without-ai

Magally, N. & Younis, A. (26 de junio de 2021). Mossad Meetings with Hemedti Stir Anger in Sudan. (2021). Aawsat.com. https://english.aawsat.com/home/article/3048136/mossad-meetings-hemedti-stir-anger-sudan

Manson, K. (28 de febrero de 2024). AI Warfare Is Already Here. Bloomberg.com. https://www.bloomberg.com/features/2024-ai-warfare-project-maven/

Markelius, A., Wright, C., Kuiper, J., Delille, N., & Kuo, Y.-T. (2 de abril de 2024). The mechanisms of AI hype and its planetary and social costs. AI and Ethics (Print). https://doi.org/10.1007/s43681-024-00461-2

Mozilla Foundation. (2021). Research Collection: Data for Empowerment. Mozilla Foundation. https://foundation.mozilla.org/en/data-futures-lab/data-for-empowerment/

Microsoft. (2024). AI For Good Lab. Microsoft Research. https://www.microsoft.com/en-us/research/group/ai-for-good-research-lab/

Naprys, E. (27 de noviembre de 2023). China vs US: who’s winning the race for AI supremacy | Cybernews. https://cybernews.com/tech/china-usa-artificial-intelligence-race/

Narrative Power. (n.d.). Narrative Power. https://narrative.colorofchange.org/

Novak, M. (5 de noviembre de 2023). Viral Video Of Actress Rashmika Mandanna Actually AI Deepfake. Forbes. https://www.forbes.com/sites/mattnovak/2023/11/05/viral-video-of-actress-rashmika-mandanna-actually-ai-deepfake/

Placani, A. (5 de febrero de 2024). Anthropomorphism in AI: hype and fallacy. AI and Ethics, 4. https://doi.org/10.1007/s43681-024-00419-4

Read, J. (1 de marzo de 2024). Nurturing a Workforce Ready for AI Integration in Manufacturing · EMSNow. EMSNow. https://www.emsnow.com/nurturing-a-workforce-ready-for-ai-integration-in-manufacturing/

Sky News Arabia. (28 de julio de 2023). Video: This is what Hemedti said in his first appearance in months. https://www.skynewsarabia.com/middle-east/1640960-%D9%81%D9%8A%D8%AF%D9%8A%D9%88-%D9%87%D8%B0%D8%A7-%D9%82%D8%A7%D9%84%D9%87-%D8%AD%D9%85%D9%8A%D8%AF%D8%AA%D9%8A-%D8%A7%D9%94%D9%88%D9%84-%D8%B8%D9%87%D9%88%D8%B1-%D8%B4%D9%87%D9%88%D8%B1

Te Mana Raraunga. (sin fecha). Te Mana Raraunga. https://www.temanararaunga.maori.nz/

PM Modi warns against deepfakes; calls on media to educate people on misinformation. (17 de noviembre de 2023). The Hindu. https://www.thehindu.com/news/national/pm-modi-warns-against-deepfakes-calls-on-media-to-educate-people-on-misinformation/article67543869.ece

TSE – Tribunal Superior Eleitoral. (1 de marzo de 2024). Publicadas resoluções do TSE com regras para as Eleições 2024. (2024). Justiça Eleitoral. https://www.tse.jus.br/comunicacao/noticias/2024/Marco/eleicoes-2024-publicadas-resolucoes-do-tse-com-regras-para-o-pleito

Varon, J. (sin fecha). T20 POLICY BRIEFING Fostering a Federated AI Commons ecosystem 1 TF05 -Inclusive digital transformation. Subtopic 5.5 -Challenges, Opportunities, and Governance of Artificial Intelligence. Retrieved December 19, 2024, from https://codingrights.org/docs/Federated_AI_Commons_ecosystem_T20Policybriefing.pdf

Vengattil, M. & Kalra, A. (24 de noviembre de 2023). India warns Facebook, YouTube to enforce rules to deter deepfakes – sources. Reuters. https://www.reuters.com/world/india/india-warns-facebook-youtube-enforce-rules-deter-deepfakes-sources-2023-11-24/

Yahoo Finance Video. (21 de octubre de 2023). Google is “democratising AI” for non-expert business app creation | The Crypto Mile. Yahoo Finance. https://finance.yahoo.com/video/google-democratising-ai-non-expert-113148816.html

Inicia la conversación

Autores, por favor Conectarse »

Guías

  • Por favor, trata a los demás con respeto. No se aprobarán los comentarios que contengan ofensas, groserías y ataque personales.