El principal objetivo de los sistemas de IA, aplicados en el sector justicia, estaría
encaminado a alcanzar la agilidad, productividad y optimización de recursos y de
trabajo, sin reemplazar el rol del juez en la toma de decisiones.
Bogotá, septiembre de 2024. Colombia está en un punto crucial para la
implementación de sistemas de inteligencia artificial (IA) en su sistema judicial. La
reciente sentencia T-323 de 2024 de la Corte Constitucional ofrece una visión detallada
sobre cómo la IA puede transformar el sector, al tiempo que subraya la necesidad de un
enfoque ético en su aplicación.
La implementación de sistemas de IA en el ámbito judicial tiene como objetivo principal
mejorar la eficiencia y productividad del sistema. La IA puede automatizar tareas
repetitivas, como la revisión de documentos, expedientes y precedentes, permitiendo
que los jueces se concentren en aspectos más complejos de la toma de decisiones. Estos
sistemas tienen la capacidad de procesar grandes cantidades de datos con rapidez y
precisión, facilitando así la recopilación y análisis de información esencial para la toma de
decisiones judiciales. Esto no solo agiliza el trabajo, sino que también mejora la calidad
de las decisiones al reducir el riesgo de errores humanos.
Un ejemplo significativo de la aplicación de IA en la justicia se encuentra en Estonia,
donde se ha desarrollado un “juez robot" para resolver casos menores. En China, el
asistente legal Xiao Zhi 3.0 asiste a los jueces en el análisis de documentos y
preparación de providencias judiciales. En Brasil, el proyecto Sócrates permite identificar
y acumular procesos judiciales similares para emitir decisiones más eficientes.
“En Colombia, aunque no existe un marco jurídico especializado para la IA, actualmente,
se están tramitando varios proyectos de ley en el Congreso para regular la aplicación de
IA, pero hasta que se promulgue una ley, el uso que se le dé a estos sistemas depende
de la autorregulación y autocontroles, aplicados al sector justicia, así como, por su
puesto, las disposiciones de orden público que son aplicables a los jueces en la
adjudicación de controversias.” afirmó Lorenzo Villegas-Carrasquilla, Socio de CMS
Rodríguez-Azuero, líder de las áreas de Tecnología, Medios & Comunicaciones, y
Antimonopolio, Competencia & Comercio.
De conformidad con la sentencia T-323 de 2024, el uso de IA en el sistema judicial
plantea importantes desafíos relacionados con el debido proceso y la garantía del juez
natural. La Corte identificó preocupaciones sobre cómo la IA puede afectar la
imparcialidad y la transparencia en la toma de decisiones. En particular, se ha discutido
cómo asegurar que la IA respete los derechos fundamentales y no comprometa la
independencia judicial. La garantía de un juez competente e imparcial es fundamental y
debe ser protegida a pesar de la incorporación de nuevas tecnologías.
“Uno de los retos destacados por la Corte es la garantía del debido proceso probatorio,
entendido como el derecho de los usuarios de la administración de justicia a solicitar el
decreto y práctica de pruebas con respecto a las cuales la sentencia estará basada. La
adopción de un sistema de IA -como lo ha apuntado la Corte- podría conducir a que en el
proceso de toma de decisión se tenga en cuenta una respuesta desacertada de la
herramienta de IA, con respecto a estándares legales o constitucionales para ordenar un
medio probatorio en específico.” añade Lorenzo Villegas-Carrasquilla.
A nivel internacional, la regulación de la IA está en desarrollo, con instrumentos de soft
law que, aunque no vinculantes, ofrecen directrices para el desarrollo ético de estas
tecnologías. Recomendaciones de organizaciones como la OCDE, la UNESCO, y el Foro
Económico Mundial abogan por la transparencia, la responsabilidad y la participación en
el desarrollo de la IA. Estas recomendaciones incluyen la necesidad de establecer
terminología precisa, sensibilizar a la opinión pública y garantizar la trazabilidad de los
contenidos generados por IA.
En octubre de 2021 se emitió en Colombia el "Marco Ético para la Inteligencia Artificial",
que ofrece directrices para la implementación ética de la IA en entidades públicas,
enfatizando la transparencia, la privacidad, la seguridad y la responsabilidad. La Corte
determinó que la IA puede ser utilizada por jueces de manera razonada, siempre que
respete la racionalidad humana y cumpla con principios éticos y de debido proceso.
Además, estableció que la IA puede apoyar en áreas administrativas y judiciales, pero no
reemplazar funciones jurisdiccionales esenciales.
“La ética es esencial para la implementación de la IA en los sistemas judiciales, ya que
guía el uso transparente y justo de esta tecnología, previniendo abusos y discriminación.
La ética asegura la protección de derechos fundamentales como la privacidad y la
igualdad, exige transparencia y rendición de cuentas, y promueve decisiones basadas en
hechos objetivos sin sesgos. Además, garantiza la fiabilidad y seguridad del sistema, y
enfatiza la necesidad de supervisión humana para mantener la imparcialidad y adaptar
las decisiones al contexto específico de cada caso.” concluyó Villegas-Carrasquilla.