
Imagen de Liz Carrigan y Safa, con elementos visuales de Yiorgos Bagakis y La Loma. Usada con autorización.
Este artículo de Safa es parte de la serie “Digitized Divides“ y se publicó originalmente en Tactical Tech. Global Voices reproduce una versión editada en virtud de un acuerdo de colaboración.
La tecnología se puede utilizar para ayudar a las personas o para herirlas, pero no necesariamente es una o la otra. Es posible utilizarla para beneficiar a una o varias personas, y herir a otras al mismo tiempo.
Aunque se pueda cuestionar si las ventajas de usar datos personales para implementar medidas o acciones masivas valen más que los daños, comparar ventajas y daños de una forma tan equilibrada, binaria y bilateral no es el camino correcto para un análisis crítico, especialmente cuando los daños incluyen violencia contra civiles. Después de todo, el sufrimiento humano jamás se justifica, y no hay manera de suavizar las consecuencias negativas de buena fe. El falso equilibrio en este aspecto intenta establecer los beneficios o puntos a favor de la tecnología, pero es solo una distracción, ya que la tecnología en sí misma no es buena ni mala. Depende de los humanos que están detrás, los dueños y operarios tras las máquinas. Según las intenciones y los objetivos de esas personas, la tecnología puede cumplir diversos propósitos.
Lucrativa y letal
Israel utiliza los datos recopilados de los palestinos para entrenar herramientas automatizadas con IA, incluidas algunas elaboradas en conjunto con empresas internacionales, como la colaboración entre la empresa israelí Elbit Systems y la india Adani Defence and Aerospace, que se implementó en Gaza y por toda Cisjordania. Las herramientas de vigilancia y los programas espía israelíes activados por IA, como Pegasus, Paragon, QuaDream, Candiru, Cellebrite y las armas con IA, como Smart Shooter y Lavender, son mundialmente famosas y se exportan a muchos países, como Sudán del Sur y Estados Unidos.
Estados Unidos también está buscando formas de utilizar tecnologías de reconocimiento facial locales e importadas en la frontera con México para registrar la identidad de los niños migrantes y reunir datos que usarán con el tiempo. Eileen Guo de MIT Technology Review escribió que “el hecho de que esta tecnología se use con personas cuya privacidad está menos protegida que la de un ciudadano estadounidense es solo una parte de un escenario mayor, en el que se utiliza a personas de países en vías de desarrollo, migrantes o civiles en zonas de guerra, para mejorar las nuevas tecnologías”. Además del reconocimiento facial, Estados Unidos también está recopilando muestras de ADN de los inmigrantes para hacer un registro masivo con el FBI.
En 2021, Google y Amazon, empresas con sede central en Estados Unidos, firmaron un exclusivo contrato de mil millones de dólares con el Gobierno israelí para desarrollar el proyecto Nimbus, pensado para mejorar las tecnologías de detección facial, categorización automatizada de imágenes, rastreo de objetos y análisis de opiniones para usos militares. Cientos de empleados de Google y Amazon criticaron este plan en una coalición llamada No Tech for Apartheid.
El Ejército israelí está vinculado con Microsoft por las herramientas de aprendizaje automático y el almacenamiento en la nube. Citamos estos ejemplos para demostrar el desequilibrio de poder dentro de los mayores sistemas de opresión que entran en juego. No todos los potenciales benefactores tienen acceso a estas herramientas y a los lazos con corporaciones. Sería inimaginable que Google, Amazon y Microsoft firmaran esos mismos contratos con, por ejemplo, el Movimiento de Resistencia Islámica (Hamas).
Armas “inteligentes”, material para pesadillas
Normalizar el uso de drones armados fuera de un campo de batalla se atribuye al expresidente estadounidense Barack Obama. En su gobierno se describieron los ataques con drones como “quirúrgicos” y “precisos”, e incluso se aseguró que usar drones armados no había provocado “ni una muerte colateral”, aunque claramente no es cierto. Desde que Obama asumió la presidencia en 2009, los ataques con drones se convirtieron en algo cotidiano y hasta aumentaron en las acciones internacionales de Estados Unidos (dentro y fuera del campo de batalla) de los gobiernos posteriores.
La crítica considera que usar drones en conflictos armados permite a los Gobiernos “hacer de juez, jurado y verdugo a kilómetros de distancia” y que los civiles “sufren de manera desproporcionada” en una “amenaza urgente contra el derecho a vivir”. Por ejemplo, según describe la BBC, los drones rusos “cazan” civiles ucranianos.
En 2009, Human Rights Watch hizo un informe sobre el uso de drones armados israelíes en Gaza. En 2021, Israel comenzó a implementar los “enjambres de drones“ en Gaza para localizar y dar seguimiento a objetivos. En 2022, Omri Dor, comandante de la base aérea de Palmachim, expresó: “Toda Gaza está ‘cubierta’ por vehículos aéreos no tripulados que recopilan datos las 24 horas del día». En Gaza, los drones han cumplido un papel importante en el aumento de los perjuicios y los objetivos, incluidos drones híbridos como The Rooster y los Robodogs, que vuelan, sobrevuelan, ruedan y escalan superficies desniveladas. Se han enviado perros robóticos armados con metralletas para reemplazar a las fuerzas terrestres.
El Smart Shooter, que usa IA y lleva el lema “un tiro, un blanco”, se jacta de su alta precisión. La versión piloto del Smart Shooter se instaló en 2022 en un puesto de control de Hebrón, donde aún permanece activo. Israel también utiliza misiles “inteligentes”, como el SPICE 2000, con el que se bombardeó un rascacielos de Beirut en octubre de 2024.
El Ejército israelí está dentro de los 20 más poderosos del mundo. Israel asegura que realiza “ataques precisos” y no apunta a civiles, pero el experto en daños a civiles Larry Lewis explicó que las estrategias de mitigación de daños a civiles de Israel han sido insuficientes, ya que sus campañas parecen estar diseñadas para poner en riesgo a los ciudadanos. Las tecnologías empleadas por Israel ya mencionadas han permitido a su Ejército aplicar una fuerza desproporcionada para matar en masa a palestinos en Gaza. Como declaró un vocero del Ejército israelí: “Nos dedicamos a lo que cause el máximo daño”.
Si bien las tecnologías con IA reducen el número de soldados en el territorio y, en consecuencia, de potenciales heridos o muertos en el Ejército que los envía, también aumentan significativamente el total de víctimas que reciben el ataque. Las fuerzas israelíes sostienen que los sistemas con IA “han minimizado los daños colaterales e incrementado la precisión de los procesos realizados por humanos”, pero la información registrada cuenta una versión distinta.
Según la documentación existente, al menos 13,319 de los palestinos muertos eran bebés o menores de hasta 12 años. Los investigadores consideran moderados los informes de Naciones Unidas sobre las víctimas palestinas y piensan que el verdadero total de muertos es el doble o incluso más del triple. Según un informe, “los supuestos ‘sistemas inteligentes’ pueden determinar el blanco, pero los bombardeos se realizan con municiones ‘tontas’ imprecisas, porque el Ejército no quiere utilizar bombas costosas para lo que un oficial de inteligencia describió como ‘blancos basura'“. Además, el 92% de las viviendas y el 88% de los edificios educativos en Gaza han sido destruidos, y el 69% de las estructuras de todo el territorio sufrieron destrucción o daños.
En 2024, expertos de Naciones Unidas repudiaron que Israel use IA para cometer crímenes de lesa humanidad en Gaza. A pesar de toda la información mencionada, ese mismo año Israel firmó un tratado global elaborado por el Consejo de Europa sobre IA para proteger derechos humanos. Para algunos, que Israel haya matado a esa cantidad de palestinos usando herramientas con IA y haya accedido a tecnologías de la vida cotidiana, como WhatsApp, es una advertencia de lo que podría ocurrirles algún día, pero para otros es un plan de acción para sistematizar eficientemente la supremacía y el control.
Este artículo plantea que el problema no es solo la falta de supervisión humana en los datos y las herramientas basadas en IA. Ciertamente, quién se encarga de recopilar, guardar, controlar e interpretar los datos y los preconceptos que tenga (ya sean implícitos o explícitos) son aspectos fundamentales para entender daños y abusos reales y potenciales. Además, concentrarse exclusivamente en la tecnología ante el genocidio que está cometiendo Israel en Gaza, o ante cualquier otra guerra, podría llevarnos a un error garrafal: absolver a los culpables de toda responsabilidad por un crimen que cometen con herramientas tecnológicas. Si ponemos tanto énfasis en los instrumentos, podemos terminar considerando un abuso intencional como un fallo de las máquinas.
Al observar el uso de la tecnología en geopolítica y conflictos armados, es esencial comprender las estructuras de poder para tener una visión clara. Lo “bueno” en algunos usos muy específicos de la tecnología no alcanza para compensar lo “malo”.
Para aquellas personas a quienes les complicaron la vida y las llevaron a un estado de urgencia como consecuencia de usar tecnología en escenarios de dominio, guerra y sistemas supremacistas, no existe mucho para destacar a su favor. Lo mismo podemos decir de otras entidades que usan algunas ventajas (geopolíticas, tecnológicas o de otro tipo) para ejercer control sobre otros que están en un lugar más desfavorecido o vulnerable. Intentar separar los usos beneficiosos y nocivos de la tecnología es perder de vista el panorama general, no solo de cómo los avances tecnológicos podrían usarse algún día, sino también de cómo se están empleando realmente ahora.








