
Imagen cortesía de Untoldmag.org.
Esta entrevista se publicó originalmente en UntoldMag el 22 de junio de 2025. Global Voices reproduce una versión editada como parte de un acuerdo de intercambio de contenido.
En medio del genocidio que se está produciendo en Gaza, la vigilancia biométrica y los drones se han convertido en herramientas fundamentales de la guerra moderna. Conversamos con el jurista e investigador Khalil Dewan. Es becario Nomos en la Universidad SOAS de Londres, y ha dedicado más de 15 años a investigar la guerra global contra el terrorismo y su transformación a través de inteligencia artificial, tecnología de drones y manipulación legal. En esta entrevista, analiza cómo han evolucionado las muertes selectivas, las consecuencias para el derecho internacional y lo que Gaza revela sobre el futuro de la guerra.
Walid El Houri (WH): Llevas más de una década investigando la guerra y la vigilancia con drones. ¿Cómo empezaste a trabajar en este campo?

Khalil Dewan (KD): I’ve been researching the global war on terror and drone strikes for the better part of 15 years. I’ve covered the US, UK, France, and other drone programs, and one of the things that’s become clear is how these Western powers are using drone warfare for several strategic purposes. Most notably, they enable easier killing through what I call the individualisation of warfare, a new form of conflict where states no longer just target non-state armed groups or enemy states, but individuals themselves, based on conduct or perceived threat.
Khalil Dewan (KD): Llevo casi 15 años investigando la guerra global contra el terrorismo y los ataques con drones. He cubierto los programas de drones de Estados Unidos, Reino Unido, Francia y otros países, y algo que ha quedado claro es cómo estas potencias occidentales están utilizando la guerra con drones para varios fines estratégicos. En particular, facilitan matar mediante lo que yo llamo la individualización de la guerra, una nueva forma de conflicto en la que los Estados ya no se limitan a atacar a grupos armados no estatales o a Estados enemigos, sino a personas concretas, por su conducta o la amenaza que perciben.
WH: WH: ¿Podría explicar qué quiere decir con «individualización de la guerra»?
KD: It’s about going after people rather than traditional military targets. Drones can fly and hover over remote parts of the world and strike individuals with very little legal accountability. This kind of targeting has dominated the past two decades of the global war on terror. And now, with AI-enabled targeting systems, things are becoming even more problematic.
KD: Se trata de perseguir a personas en lugar de objetivos militares tradicionales. Los drones pueden volar y sobrevolar zonas remotas del mundo y atacar a personas con muy poca responsabilidad legal. Este tipo de ataques ha dominado las últimas dos décadas de la guerra global contra el terrorismo. Y ahora, con los sistemas de ataque con inteligencia artificial, la situación se está volviendo aún más problemática.
WH: ¿Cómo se está utilizando la IA en las muertes selectivas, especialmente en lugares como Gaza?
KD: In the case of Israel, for example, we’ve seen the use of AI-enabled targeting systems through drones. These systems are designed to process metadata and help identify targets who can be struck and where they may be located, especially in complex urban environments like Gaza. But that’s highly problematic, especially when used by states like Israel or the United States, which already operate under an enabling posture, meaning they are already inclined to strike, with or without clear legal justification.
KD: En el caso de Israel, por ejemplo, hemos visto que se usan sistemas de localización con IA a través de drones. Estos sistemas están diseñados para procesar metadatos y ayudar a identificar objetivos que pueden atacarse y dónde pueden estar, especialmente en entornos urbanos complejos como Gaza. Pero eso es muy problemático, sobre todo cuando lo utilizan países como Israel o Estados Unidos, que ya operan con una postura habilitadora, lo que significa que ya están inclinados a atacar, con o sin una justificación legal clara.
WH: ¿Cuáles son las consecuencias legales de esta cadena de destrucción impulsada por la IA?
KD: It complicates everything. We’re no longer just asking whether a killing was lawful. Now we’re dealing with algorithmic bias baked into AI systems. Biases that are designed and implemented by states. In an armed conflict, relying on such technology raises serious legal and ethical concerns. Who designed the system? What biases are embedded? Who’s accountable when the wrong person is killed?
KD: Esto complica todo. Ya no solo nos preguntamos si matar fue legal. Ahora enfrentamos el sesgo algorítmico integrado en los sistemas de IA. Sesgos diseñados e implementados por los Estados. En un conflicto armado, confiar en esta tecnología plantea serios problemas legales y éticos. ¿Quién diseñó el sistema? ¿Qué sesgos tiene incorporados? ¿Quién es responsable cuando se mata a la persona equivocada?
WH: Vimos el uso de escáneres biométricos durante las evacuaciones en Gaza. ¿Cuáles son las consecuencias de esta vigilancia en un contexto humanitario?
KD: It’s deeply troubling. When Israel opened what it called an evacuation corridor in Gaza, Palestinians were held between two large structures and forced to have their faces scanned before being allowed to move. This was done amid ongoing shelling and airstrikes, and it shows how biometric data extraction is being used as a precondition for survival. Palestinians are already among the most heavily surveilled communities in the world, and now biometric submission is being weaponized during a humanitarian crisis.
KD: Es muy preocupante. Cuando Israel abrió lo que denominó un corredor de evacuación en Gaza, los palestinos quedaron atrapados entre dos grandes estructuras y se les obligó a someterse a un escaneo facial antes de permitir que avancen. Esto se hizo en medio de bombardeos y ataques aéreos continuos, y demuestra cómo la extracción de datos biométricos se está utilizando como condición previa para sobrevivir. Los palestinos ya se encuentran entre las comunidades más vigiladas del mundo, y ahora la presentación de datos biométricos se está utilizando como arma durante una crisis humanitaria.
WH: ¿Esta práctica se ajusta al derecho internacional?
KD: It certainly raises major concerns. International law is being manipulated, particularly by Western states, to justify targeted killings both inside and outside of armed conflict. They rely on legal arguments about imminent threats, self-defense, and the use of force, but in reality, they are pushing the boundaries of lawfare. Forcing biometric scans during a crisis, for example, fits within a broader strategy of control and dehumanization, not humanitarian protection.
KD: Sin duda, esto presenta grandes preocupaciones. El derecho internacional está siendo manipulado, especialmente por los Estados occidentales, para justificar los asesinatos selectivos, dentro y fuera de los conflictos armados. Se basan en argumentos jurídicos sobre amenazas inminentes, legítima defensa y uso de la fuerza, pero en realidad están traspasando los límites de la guerra jurídica. Por ejemplo, obligar a someterse a escáneres biométricos durante una crisis encaja en una estrategia más amplia de control y deshumanización, no de protección humanitaria.
WH: ¿Qué papel desempeñan los actores privados en este nuevo panorama bélico?
KD: Private actors are increasingly involved, whether through data processing, AI development, or logistical support. This privatisation of warfare makes it even harder to assign accountability. You have a blurred line between state and corporate responsibility, and international law isn’t adequately equipped to handle that yet.
KD: Los actores privados están cada vez más involucrados, ya sea a través de procesamiento de datos, elaboración de inteligencia artificial o apoyo logístico. Esta privatización de la guerra hace que sea aún más difícil asignar responsabilidades. La línea entre la responsabilidad del Estado y la de las empresas es difusa, y el derecho internacional aún no está adecuadamente preparado para abordar esta cuestión.
WH: ¿Cómo cree que el futuro de la IA y la autonomía darán forma al campo de batalla?
KD: What we are witnessing in Gaza is the future of warfare, a convergence of AI, autonomy, targeted killings, and legal manipulation. States are racing to stay competitive in this space. The Global South is developing its own drone and AI capabilities and looking at the last 20 years, particularly at Israel’s actions in Gaza, and asking, “If they can get away with it, what should our position be?”
KD: Lo que estamos presenciando en Gaza es el futuro de la guerra, una convergencia de IA, autonomía, muertes selectivas y manipulación legal. Los Estados compiten por mantener su competitividad en este ámbito. El Sur Global está desarrollando sus propias capacidades en materia de drones e IA y, al observar los últimos 20 años, en particular las acciones de Israel en Gaza, se pregunta: «Si ellos pueden salirse con la suya, ¿cuál debería ser nuestra postura?».
WH: ¿Qué consejo daría a los países del Sur Global que enfrentan esta situación?
KD: My message is clear: comply with international law as faithfully as possible. Uphold ethical standards, chivalry, if you will, but also recognize the geopolitical reality. States must remain competitive in the lawmaking process. They shouldn’t be colonized by international law that’s weaponized by powerful actors, but they also shouldn’t abandon it. It’s about balancing ethics with survival, because if Gaza has taught us anything, it’s that survival is now a legal, political, and existential question.
KD: Mi mensaje es claro: cumplan con el derecho internacional lo más fielmente posible. Mantengan los estándares éticos, la caballerosidad, si se quiere, pero también reconozcan la realidad geopolítica. Los Estados deben seguir siendo competitivos en el proceso legislativo. No deben dejarse colonizar por el derecho internacional, que los actores poderosos utilizan como arma, pero tampoco deben abandonarlo. Se trata de encontrar el equilibrio entre la ética y la sobrevivencia, porque si Gaza nos ha enseñado algo, es que la sobrevivencia es ahora una cuestión jurídica, política y existencial.






