El límite de la justicia automatizada
El uso de algoritmos plantea riesgos para la presunción de inocencia y el debido proceso, mientras el modelo europeo apuesta por preservar la decisión humana en los tribunales
El avance de la inteligencia artificial (IA) en los sistemas de justicia abre un debate central sobre sus beneficios y límites. En esta entrevista, la especialista, invitada por la Fundación Global Democracia y Desarrollo (Funglode) analiza hasta qué punto estas herramientas pueden aportar eficiencia sin comprometer garantías fundamentales, en un contexto donde la tecnología ya incide en decisiones sensibles.
En un conversatorio en el citado centro de pensamiento, la especialista abordó el tema con una exposición titulada: "La inteligencia artificial: entre la promesa de objetividad y el riesgo de deshumanización de la justicia". En la entrevista, la jurista destacó aspectos significativos del impacto de esta nueva herramienta aplicada al ámbito judicial.
¿Hasta qué punto la inteligencia artificial puede reducir la discrecionalidad judicial sin reproducir o amplificar los sesgos históricos presentes en los sistemas de justicia?
La inteligencia artificial puede reducir ciertas formas de variabilidad judicial, especialmente aquellas ligadas al cansancio, al contexto, al estado de ánimo o a lo que Kahneman denominó “ruido”. En ese sentido, puede introducir mayor regularidad, consistencia y previsibilidad en determinadas decisiones, sobre todo allí donde el juicio humano se muestra inestable o excesivamente dependiente del de la decisión correcta concreto, pero esta capacidad de ofrecer resultados sin ruido, porque la IA no se enfada ni sufre estrés, no significa que sean más imparciales y objetivas que las humanas.
Sin embargo, se ha demostrado que la IA resuelve con sesgos y ello porque la IA no opera en el vacío, sino a partir de datos construidos por sistemas sociales e institucionales que ya contienen desigualdades históricas. De esta forma puede reproducir o incluso intensificar sesgos previos si estos están incrustados en los datos, en las categorías utilizadas o en el propio diseño del sistema.
Por ello, la IA no elimina automáticamente la subjetividad humana; a veces simplemente la desplaza de lugar. Se pasa de la discrecionalidad visible del juez a una forma de sesgo tecnificado, menos evidente y, por ello mismo, más difícil de detectar y cuestionar. Por tanto, la inteligencia artificial solo puede reducir legítimamente la discrecionalidad judicial si está sometida a fuertes exigencias de transparencia, control, revisión y supervisión humana.
¿Qué riesgos concretos implica el uso de algoritmos en decisiones preventivas que afectan derechos fundamentales, como la libertad personal o la presunción de inocencia?
Podemos identificar riesgos muy concretos.El primero es la opacidad algorítmica. Cuando una decisión sobre libertad, reincidencia, peligrosidad o medidas cautelares se apoya en un sistema cuyo funcionamiento no es plenamente accesible ni comprensible, se debilitan elementos esenciales del debido proceso. La persona afectada puede no saber con claridad cómo se ha construido la evaluación de riesgo, qué variables se han utilizado, con qué peso o con qué margen de error.
El segundo riesgo es la afectación del derecho de defensa. Si la lógica interna del algoritmo no puede ser discutida eficazmente, la contradicción procesal se resiente. El afectado puede verse condicionado por una valoración técnica que influye en la decisión, pero que no puede impugnar en condiciones reales de igualdad, puesto que desconoce las razones que llevaron a la IA a tomar esa decisión.
El tercero es la apariencia de neutralidad o infalibilidad. Las puntuaciones, escalas o probabilidades pueden producir una falsa impresión de objetividad. No podemos olvidar que una predicción estadística no equivale a una verdad jurídica. El riesgo consiste en que la autoridad técnica del algoritmo termine sustituyendo, en la práctica, la motivación jurídica y la valoración prudente del caso.
El cuarto riesgo es más profundo: el que las decisiones que afectan derechos fundamentales descansen sobre una lógica predictiva que desplace la presunción de inocencia y acerque la justicia a un modelo de anticipación del comportamiento futuro. En esos casos, el sistema ya no reacciona solo frente a hechos probados, sino también frente a probabilidades, y eso exige una cautela constitucional máxima.
En el equilibrio entre eficiencia judicial y garantías procesales, ¿dónde deberían trazarse los límites del uso de la inteligencia artificial dentro del sistema de justicia?
Los límites deben trazarse allí donde el uso de la inteligencia artificial empieza a comprometer el núcleo de las garantías procesales.
La IA puede ser útil en tareas auxiliares: clasificación de expedientes, gestión documental, búsqueda de información, detección de patrones, tratamiento masivo de datos o apoyo técnico en labores preparatorias. En ese terreno, la eficiencia puede ser una ventaja legítima y compatible con la mejora del sistema.
Pero el límite aparece cuando la IA se aproxima al núcleo duro de la función jurisdiccional, es decir, cuando influye de manera determinante en la valoración de hechos, en la apreciación de la prueba, en la interpretación del Derecho o en decisiones que afectan directamente a la libertad, a la dignidad o a otros derechos fundamentales.
La justicia penal no puede regirse solo por criterios de rendimiento. No basta con que una herramienta convierta el sistema en uno más rápido o más uniforme. La pregunta decisiva es si ese uso sigue siendo compatible con la motivación judicial, la transparencia, la posibilidad de contradicción, el recurso y la responsabilidad de quien decide.
Por tanto, el límite debería situarse exactamente ahí: la IA puede asistir, pero no sustituir el juicio jurídico humano allí donde están en juego garantías fundamentales.
A partir de la experiencia comparada en jurisdicciones como la Unión Europea, Estados Unidos o Brasil, ¿qué modelo regulatorio ofrece mayores garantías frente a la deshumanización de la decisión judicial?
En realidad, no hay una respuesta simplista en favor de un único sistema, pero podemos ver una comparación muy clara.
Brasil aparece como el modelo más ambicioso en términos de gobernanza estructural. Su fortaleza está en la clasificación de riesgos, la evaluación de impacto, la auditoría, la transparencia institucional y la trazabilidad de los sistemas. Es un modelo fuerte para hacer la tecnología jurídicamente gobernable.
Europa, y especialmente España, aparecen como el modelo más intenso en la protección del núcleo constitucional del juzgar. Su preocupación principal no es solo gobernar la herramienta, sino impedir que la inteligencia artificial invada la responsabilidad humana del juez, la independencia judicial y la función jurisdiccional en sentido estricto. Es, por tanto, el modelo más claramente orientado a evitar que la automatización sustituya la decisión humana en el espacio donde se valoran hechos, se interpretan normas y se afectan derechos fundamentales.
Estados Unidos, en cambio, se presenta como un modelo de experimentación y corrección posterior. Tiene capacidad adaptativa, pero también mayor fragmentación y menor uniformidad protectora, lo que puede dejar al justiciable más expuesto a desigualdades regulatorias y a controles insuficientes.
Si la pregunta es qué modelo ofrece mayores garantías frente a la deshumanización de la decisión judicial, mi inclino hacia el modelo europeo-español, porque es el que más claramente blinda la función jurisdiccional humana y más insiste en que la IA no puede sustituir la valoración del juez. Brasil ofrece una regulación institucional muy sólida, pero Europa y España aparecen como los sistemas más directamente orientados a preservar la dimensión constitucional y humana del acto de juzgar.
En España, por ejemplo, la Instrucción del Pleno del Consejo General del Poder judicial de 28 de enero de 2026, acordó lo siguiente en relación con los Principios de utilización de los sistemas de IA en el ejercicio de la actividad jurisdiccional:
La utilización de los sistemas de IA por los jueces, juezas, magistrados y magistradas en el ejercicio de la actividad jurisdiccional deberá ajustarse a los siguientes principios:
- Principio de control humano efectivo. La utilización de sistemas de IA en el ejercicio de la actividad jurisdiccional estará siempre sometida a un control humano real, consciente y efectivo por parte de los jueces, juezas, magistrados y magistradas, sin que dichos sistemas puedan operar de forma autónoma para la toma de decisiones judiciales, la valoración de los hechos o de las pruebas, o la interpretación y aplicación del Derecho.
- Principio de no sustitución de los jueces, juezas, magistrados y magistradas.En el ejercicio de la actividad jurisdiccional, la utilización de los sistemas de IA no podrá sustituir en ningún caso a los jueces, juezas, magistrados y magistradas para la toma de decisiones judiciales, la valoración de los hechos o de las pruebas o la interpretación y aplicación del Derecho.
- Principio de responsabilidad judicial. La responsabilidad plena y exclusiva de las resoluciones, decisiones y actuaciones jurisdiccionales corresponde en todo caso a los jueces, juezas, magistrados y magistradas, con independencia de la utilización de sistemas de IA como instrumento de apoyo o asistencia.
- Principio de independencia judicial. La utilización de sistemas de IA deberá realizarse de manera compatible con la independencia judicial, sin que los resultados generados por dichos sistemas condicionen, directa o indirectamente, la libertad de criterio del órgano jurisdiccional.
- Principio de respeto a los derechos fundamentales. La utilización de sistemas de IA deberá respetar en todo caso los derechos fundamentales reconocidos en la Constitución y en el Derecho de la Unión Europea y, en particular, la tutela judicial efectiva, la igualdad, la no discriminación y la protección de datos personales.
- Principios de confidencialidad y seguridad. En el tratamiento de datos judiciales mediante sistemas de IA deberá garantizarse la confidencialidad, integridad y seguridad de la información, evitando accesos no autorizados, usos indebidos o transferencias no permitidas.
- Principio de prevención de sesgos algorítmicos. Los jueces, juezas, magistrados y magistradas deberán adoptar las cautelas necesarias para identificar y evitar sesgos algorítmicos derivados de la utilización de sistemas de IA.
- Principios de proporcionalidad y uso limitado. La utilización de sistemas de IA deberá ser proporcionada a la finalidad perseguida y limitada a aquellos supuestos en los que puedan resultar útiles y eficaces como instrumento de apoyo o asistencia a la actividad jurisdiccional.
- Principio de formación y capacitación. Los jueces, juezas, magistrados y magistradas podrán recibir formación y capacitación sobre el uso de los sistemas de IA en el ámbito de la Administración de Justicia.
Si juzgar implica interpretar, ponderar y asumir responsabilidad institucional, ¿qué papel real puede desempeñar la inteligencia artificial sin sustituir indebidamente la función del juez?
La inteligencia artificial puede desempeñar un papel auxiliar, instrumental y de apoyo, pero no puede ocupar el centro de la decisión jurisdiccional.
Su papel legítimo estaría en funciones como ordenar información, localizar patrones, facilitar tareas de gestión, resumir documentos, asistir en búsquedas complejas, procesar grandes volúmenes de datos o colaborar en tareas técnicas y preparatorias. Todo eso puede mejorar la administración de justicia sin desplazar al juez.
Juzgar no es solo calcular. Juzgar implica interpretar normas, ponderar principios, valorar circunstancias concretas, justificar decisiones y asumir responsabilidad institucional. Esa dimensión no puede ser absorbida por la lógica algorítmica, porque el algoritmo no ofrece razones en sentido jurídico fuerte: correlaciona, clasifica, predice, pero no responde institucionalmente por la justicia de la decisión. La IA puede ayudar a “ordenar” la justicia, lo que no debería hacer es reemplazar la responsabilidad humana de juzgar.
Por eso, el papel real de la IA debe ser el de una herramienta subordinada al juicio humano, nunca el de un sustituto del juez. Puede ayudar a que la justicia sea más eficiente e incluso más consistente en ciertos aspectos, pero la decisión final debe seguir siendo humana, motivada, revisable y jurídicamente atribuible a una autoridad responsable.
El límite de la justicia automatizada
Un tiroteo que derivó en un accidente en Lawrence deja a un dominicano y su novia muertos
Los precios de productos esenciales siguen estables pese a crisis internacional, afirman detallistas
DP World genera potencial de US$2,400 millones anuales en exportaciones para la economía dominicana