Cuando el juez se encuentra con el algoritmo: Herramientas de IA llegan a los juzagos de India

The Supreme Court of India.

Corte Suprema de India vía Wikimedia Commons (licencia CC BY-SA 4.0,

La inteligencia artificial (IA) ha entrado a hurtadillas en el trabajo judicial de India de una manera nunca antes vista. La IA puede generar transcripciones en tiempo real en las audiencias de la Sala Constitucional de la Corte Suprema; registrar con software automatizado las declaraciones de testigos en los juicios. Los jueces están probando herramientas de IA para investigación y traducción legal para recorrer expedientes judiciales con muchos idiomas. Sn embargo, estas pruebas ocurren en un fatigado espacio judicial, lo que plantea una pregunta medular: ¿pueden los algoritmos acelerar la justicia sin dejar de preservar justicia, transparencia y discernimiento humano?

En India hay millones de casos pendientes; es más, los casos acumulados llegan a decenas de millones. Para tratar este problemas, el Gobierno, bajo la dirección de la Corte Suprema y el Ministerio de Derecho y Justicia, está implementando la fase III del proyecto juzgados electrónicos, que busca modernizar los archivos, la gestión de los expedientes y los procesos de flujo de trabajo con aprendizaje automático y tecnologías del idioma. Una parte grande del presupuesto está a signada a futuras tecnologías, como IA y cadena de bloques, lo que implica una apuesta política de que las herramientas digitales atenuarán las actuales demoras mientras continúan con el mandato de que solo los jueces deciden casos. Aunque las cortes empiezan a adoptar IA desordenadamente, también deben fijar límites sobre responsabilidades, privacidad y límites de la automatización.

La promesa: velocidad con la carga procesal

La adopción de IA se basa en la digitalización anterior. Desde la implementación de las cortes electrónicas en 2007, el programa empezó a usar los archivos electrónicos, listas de causas digitales y resoluciones en línea, con el objetivo de posibilitar las solicitudes en línea. La fase III gura en torno a considerar la información judicial, ahora digitalizada, para interpretar con procesamiento de lenguaje natural y aprendizaje automático.

Una innovación fudamental es el Portal de la Corte Suprema para Asistencia en Eficiencia Judicial (SUPACE), plataforma de IA que ayuda a los jueces y al equipo de investigación a tomar decisiones de trabajo informadas y gestionar registros judiciales muy grandes. SUPACE no toma decisiones; identifica hechos, propone precedentes y redacta los resúmenes, con lo que disminuye el tiempo de investigación manual y permite a los jueces concentrar el razonamiento legal.

El acceso al lenguaje también es un asunto principal. La Corte Suprema ha elaborado el software Vidhik Anuvaad (SUVAS), que convierte resoluciones del inglés a otros idiomas indios, mientras algunas cortes superiores prueban herramientas para convertir resoluciones a idiomas locales al inglés. La AI-transcripción con IA también está cambiando el mantenimiento de los registros. La máximo corte ha iniciado la transcripción automatizada en asuntos constitucionales, y ha estado haciendo textos casi en tiempo real para los archivos desde 2023.

La instrucción más importante la dio la Corte Superior de Kerala en 2025, cuando instruyó a todas las cortes subordinadas a usar discurso con IA para la herramienta de texto Adalat.AI para grabar las declaraciones de los testigos a partir del 1 de noviembre de 2025. Adalat.AI ha sido elaborado por una empresa emergente con vínculos de investigación con centros superiores como la Universidad de Harvard y el MIT, y reemplaza las notas escritas lentamente a mano con transcripciones digitales inmediatas captadas en el sistema judicial del distrito. La orden permite a los jueces a usar solo plataformas alternativas aprobadas por la Dirección de Tecnologías de la Información de la Corte Superior si el sistema falla. Así, se garantiza el control de cómo se procesan los audios con información delicada.

Los funcionarios describen estas reformas como pasos a un poder judicial más eficiente y transparente. Los documentos policiales enfatizan el potencial de la IA para reducir el error humano en las transcripciones, encuentran automáticamente errores básicos en el proceso de archivamiento electrónico, y ayudar a los jueces saturados de trabajo a priorizar casos urgentes. Quienes saben de la reforma judicial sostienen que, si se aplica con cuidado, esos sistemas podrían acortar las audiencias, ,mejorar la precisión de las transcripciones y traducciones, y dar a los litigantes, sobre todo los que están en distritos lejanos con escasos recursos legales más visibilidad al progreso de sus casos.

La preocupación: Cuando los algoritmos ocultan el pensamiento judicial

Pese al optimismo, jueces y expertos han expresado su preocupación. Una advertencia notable llegó de la Corte Superior de Delhi en 2023, cuando se negó a considerar los argumentos en un caso de derecho de marcas que usó ChatGPT. La corte dijo que los macromodelos lingüísticos podrían fabricar citaciones y hechos, y que su resultado necesitaba verificación independiente.

En otro caso, la misma sala de la Corte Superior permitió a compradores retirar una petición cuando descubrieron que partes de sus alegatos, incluidas citaciones de sus casos, fueron generadas con ChatGPT. Las quejas señalaron que el documento incluía casos no existentes y declaraciones mal citadas. El juez amonestó el uso de IA generativa no verificada, dijo que esas prácticas podrían inducir a error a la corte. El incidente reflejó los peligros profesionales del trabajo de velocidad y precisión que ofrece el uso de IA en el poder judicial.

El problema de la caja negra va mucho más allá. Las herramientas de IA usadas para buscar, resumir o transcribir pueden basarse en modelos  no claros. Cuando SUPACE apunta a algunos precedentes, jueces y litigantes no pueden saber exactamente cómo se priorizaron esos casos. Los expertos advierten que este nivel de opacidad hace que sea más difícil sacar a relucir los errores y podría influir sutilmente en el pensamiento judicial si las sugerencias algorítmica se ven como «neutrales» de alguna manera”.

Otro peligro son los sesgos. La ley india, como la sociedad, es desigual y, por lo tanto, las bases de datos para capacitar a la IA también pueden estar influidos con patrones discriminatorios por casta, género, clase o religión. Los analistas advierten que la IA refuerza esos sesgos en nombre de una mayor eficiencia. Los jueces de mayor jerarquía, el juez presidente de India, reconocieron que la IA puede “ampliar la discriminación” en casos en los que su falta de transparencia sigue en pie o donde se le entrena con datos no representativos.

También hay preocupación por la privacidad y la seguridad. Los registros judiciales contienen gran cantidad de datos personales delicados, como acusaciones penales, finanzas y detalles médicos. Todas las pautas de cortes como la Corte Superior de Kerala no recomiendan cargar datos a herramientas en nubes públicas. La ley de protección digital de datos personales de 2023 se aplica a un procesamiento automatizado, que abarca herramientas de IA que se usan en la corte. Sin una ley de IA dedicada, la cortes y los programadores deben recorrer un mosaico de confidencialidad y normas de protección de datos.

Otra preocupación que dificulta la mejora a largo plazo sería el «sesgo de automatización«, por el cual los seres humanos confían inconscientemente en exceso en los resultados de las computadoras. Los académicos sostienen, por ejemplo, que cuando la IA presenta al juez un precedente aplicable o la prioridad de un caso, bajo la presión de la carga de trabajo, el juez puede tender, a menudo sin siquiera darse cuenta, a reconsiderar alguna cuestión. A medida que los sistemas se vuelven más fluidos, el único aspecto que evitará que la IA como herramienta se convierta en un autor silencioso en las decisiones judiciales serán las estrictas intrusiones de la disciplina judicial.

Trazando un camino intermedio: supervisión sin rendición

El Poder Judicial intenta encontrar un equilibrio entre los pedidos de carga judicial y salvaguardas éticas en su funcionamiento. En ese sentido, Kerala ha tomado la delantera con Adalat.AI y también con una completa política de IA para cortes subordinadas. La política va la IA como una herramienta administrativa para transcribir y traducir, prohibir que la IA generativa redacte resoluciones o hacer predicción de resultados, asesora a jueces para evaluar rigorosamente los resultados de la IA, y prohíbe a las plataformas externas pedir que se cargue información confidencial.

A nivel nacional, la Corte Suprema ha establecido un comité de IA para evaluar sus herramientas y la integración en todos los sistemas de tecnologías de la información judiciales, sobre todo con asociaciones con instituciones como IIT Madrás. Las declaraciones gubernamentales sugieren que ya hay una política uniforme para usar IA en los juzgados, que estará a tono con las pautas éticas y de privacidad. Las autoridades enfatizan que la IA se aceptará solo con “supervisión humana, vigilancia ética  y protección de la privacidad”, y que solo los jueces estarán autorizados a firmar las órdenes.

Sin embargo, en India no existe una ley general sobre IA. Algunas normas actuales están en circulares judiciales, estatutos de protección de datos y políticas generales sobre tecnología. Los estudios sobre la integridad judicial sugieren realizar auditorías periódicas para detectar sesgos, exigir divulgación obligatoria siempre que la IA influya en las presentaciones o decisiones, y dar a los litigantes una forma de impugnar las herramientas de IA que afecten sus casos. Los expertos insisten en la necesidad de mejorar la infraestructura tecnológica de los juzgados de primera instancia, la formación judicial para cuestionar los resultados de la IA y la educación pública sobre lo que estas herramientas pueden y no pueden hacer.

El principal reto ya no es adoptar IA, sino la capacidad de coexistir con IA. Problemas reales como retrasos en la tramitación de los casos, barreras lingüísticas y desigualdad en el acceso a la información jurídica pueden aliviarse con herramientas de IA. Sin embargo, no se puede negar que usar algoritmos opacos en los procesos judiciales cotidianos puede reducir su responsabilidad. Por ahora, los jueces de India parecen decididos a mantener a los humanos firmemente al mando, tratar a la IA como un asistente y no como un oráculo. La duración de este equilibrio determinará la velocidad con la que se imparte justicia, y también el nivel de confianza que el público tiene en este proceso.

Inicia la conversación

Autores, por favor Conectarse »

Guías

  • Por favor, trata a los demás con respeto. No se aprobarán los comentarios que contengan ofensas, groserías y ataque personales.