ROBÓTICA, INTELIGENCIA ARTIFICIAL Y
DERECHO: NUEVAS DIMENSIONES JURÍDICAS
EN EL SIGLO XXI
ROBOTICS, ARTIFICIAL INTELLIGENCE AND LAW:
NEW LEGAL DIMENSIONS IN THE 21ST CENTURY
Christian Medina Rojas
Fundación Universitaria Navarra, Colombia
pág. 9488
DOI: https://doi.org/10.37811/cl_rcm.v9i1.16574
Robótica, Inteligencia Artificial y Derecho: Nuevas Dimensiones Jurídicas
en el Siglo XXI
Christian Medina Rojas1
christianmedinarojas@gmail.com
https://orcid.org/0009-0003-5319-2819
Fundación Universitaria Navarra UNINAVARRA
Colombia
RESUMEN
La inteligencia artificial (IA) y la robótica están revolucionando diversos sectores, incluyendo el ámbito
jurídico, al ofrecer herramientas capaces de optimizar procesos, reducir tiempos y mejorar la precisión
en la administración de justicia. Este documento revisa algunos casos emblemáticos en Colombia, como
Siarelis, Pretoria y ArIA, junto a referentes internacionales como Prometea en Argentina, y otros casos,
en Europa, Asia y América Latina, para analizar el impacto de estas tecnologías en el sistema judicial
colombiano. Además, estudia la Sentencia T-323 de 2024 de la Corte Constitucional colombiana, que
exhortó a los jueces a garantizar el uso ético y supervisado de herramientas basadas en IA, respetando
los derechos fundamentales y preservando la independencia judicial; y también el Acuerdo PCSJA24-
12243 emitido por el Consejo Superior de la Judicatura, que regula los lineamientos establecidos por la
Corte Constitucional. Aunque las innovaciones tecnológicas ofrecen beneficios innegables, el artículo
enfatiza que su implementación debe realizarse bajo estricta vigilancia humana. Estas herramientas
deben ser vistas como un medio para potencializar las capacidades humanas, sin reemplazar el criterio,
la sensibilidad y la empatía que caracterizan al ser humano. Asimismo, se subraya la necesidad de
establecer marcos regulatorios claros que prevengan sesgos y garanticen un uso responsable de estas
tecnologías. La IA y la robótica no son una amenaza, sino un recurso valioso que empleado de manera
adecuada, puede contribuir a fortalecer el sistema judicial. Sin embargo, su integración debe realizarse
con prudencia, asegurando siempre que la persona humana sea el centro del proceso judicial, y que las
decisiones cruciales sigan siendo producto de su juicio crítico, sensibilidad social y ética profesional.
Palabras clave: inteligencia artificial, robótica, justicia, supervisión humana
1
Autor principal
Correspondencia: christianmedinarojas@gmail.com
pág. 9489
Robotics, Artificial Intelligence and Law: New Legal Dimensions in The
21st Century
ABSTRACT
Artificial intelligence (AI) and robotics are revolutionizing various sectors, including the legal field, by
offering tools capable of optimizing processes, reducing times and improving precision in the
administration of justice. This document reviews some emblematic cases in Colombia, such as Siarelis,
Pretoria and ArIA, together with international references such as Prometea in Argentina, and other cases
in Europe, Asia and Latin America, to analyze the impact of these technologies on the Colombian
judicial system. In addition, it studies Sentence T-323 of 2024 of the Colombian Constitutional Court,
which urged judges to guarantee the ethical and supervised use of AI-based tools, respecting
fundamental rights and preserving judicial independence; and also Agreement PCSJA24-12243 issued
by the Superior Council of the Judiciary, which regulates the guidelines established by the
Constitutional Court. Although technological innovations offer undeniable benefits, the article
emphasizes that their implementation must be carried out under strict human supervision. These tools
must be seen as auxiliaries that enhance human capabilities, without replacing the judgment, sensitivity
and empathy that characterize human beings. The need to establish clear regulatory frameworks to
prevent bias and ensure responsible use of these technologies is also stressed. AI and robotics are not a
threat, but a valuable resource that, when used appropriately, can contribute to strengthening the judicial
system. However, their integration must be carried out with caution, always ensuring that the human
person is at the centre of the judicial process, and that crucial decisions continue to be the product of
their critical judgement, social sensitivity and professional ethics.
Keywords: artificial intelligence, robotics, justice, human supervision
Artículo recibido 20 enero 2025
Aceptado para publicación: 26 febrero 2025
pág. 9490
INTRODUCCIÓN
La robótica y la inteligencia artificial (IA) han transformado de manera radical numerosos aspectos de
la vida cotidiana y profesional en el siglo XXI. En el ámbito del Derecho, la incursión de estas
tecnologías plantea una serie de interrogantes y desafíos que requieren respuestas oportunas y bien
fundamentadas. La robótica aplicada al derecho no solo modifica la forma en que se desenvuelven y
gestionan los procesos judiciales, sino que también redefine conceptos fundamentales de justicia,
seguridad jurídica y responsabilidad.
El derecho comparado ofrece experiencias relevantes sobre cómo otros países han abordado la
integración de la robótica y la IA en sus ordenamientos jurídicos y órganos judiciales, sirviendo como
referencia valiosa para países en vías de implementación como Colombia. En este contexto, se explorará
los avances evidenciados en Europa, Asia y algunos casos de América Latina, analizando sus modelos
y resultados, para proyectar su aplicabilidad en el país.
Sin embargo, Colombia ya ha tomado las primeras iniciativas en la incorporación de inteligencia
artificial en el ámbito jurídico. Ejemplos notables incluyen el sistema "Pretoria" de la Corte
Constitucional, que apoya la selección de tutelas, y el Juzgado de Puerto Rico, Caquetá, que ha
integrado I.A en su página web para agilizar la atención a los usuarios. Además, la reciente Sentencia
T-323 de 2024 de la Corte Constitucional destaca un hito jurisprudencial, exhortando a los jueces a
evaluar el uso adecuado de herramientas como ChatGPT y el más reciente acuerdo del Consejo Superior
de la Judicatura, que reguló el uso de la IA en la rama judicial colombiana. Estas iniciativas reflejan
una postura cautelosa y a la vez visionaria, que buscan un equilibrio entre los beneficios de la
inteligencia artificial y los valores y principios fundamentales del sistema judicial colombiano.
Este análisis busca no solo evaluar los avances alcanzados, sino también identificar los retos y
oportunidades que enfrenta nuestro país para garantizar una integración ética y efectiva de la robótica
y la inteligencia artificial en el ámbito jurídico.
En las últimas décadas, los avances tecnológicos han redefinido las fronteras del conocimiento y las
prácticas humanas en múltiples campos. En este panorama, la robótica y la inteligencia artificial (IA)
pág. 9491
emergen como fenómenos disruptivos capaces de transformar desde procesos industriales hasta
estructuras sociales complejas.
El Derecho, como disciplina que regula la conducta humana y organiza la convivencia social, no es
ajeno a dicho fenómeno. Sin embargo, es preciso partir de la noción básica de estos dos conceptos que,
aunque parecen similares, detonan importantes diferencias entre sí.
En el contexto de los avances tecnológicos contemporáneos, la robótica ha emergido como una
disciplina clave en la transformación de las dinámicas sociales, económicas y laborales. Su relevancia
radica no solo en su capacidad para optimizar procesos y reemplazar tareas humanas, sino también en
su potencial para redefinir la interacción entre las personas y las máquinas. Sin embargo, abordar su
estudio requiere partir de una definición clara que permita comprender su esencia. Desde esta
perspectiva, la Administración Nacional de Aeronáutica y el Espacio (NASA) ofrece una
caracterización que resalta tanto la naturaleza técnica de los robots como su capacidad de actuación
autónoma o guiada:
Siguiendo la definición de robótica de la Administración Nacional de Aeronáutica y el
Espacio (NASA), la robótica es el estudio de los robots, entendiendo a estos como
máquinas que pueden emplearse para realizar trabajos humanos, habiendo algunos que
pueden hacerlo por su propia cuenta y otros que requieren de una persona que les
indique previamente lo que hacer (Universidad ORT, s.f).
En contraste con la robótica, la inteligencia artificial (IA) representa un campo más reciente y dinámico
que ha revolucionado la manera en que interactuamos con la tecnología y tomamos decisiones en
diversos sectores. Lasse Rouhiainen, reconocido por sus aportes al estudio de la inteligencia artificial,
describe esta tecnología como un avance que transforma profundamente la forma en que las máquinas
procesan información y toman decisiones.
A diferencia de otras disciplinas tecnológicas, la IA se distingue por su capacidad para aprender de los
datos, adaptarse a nuevos escenarios y ejecutar tareas con una eficiencia superior a la del ser humano
en términos de precisión y velocidad. En este sentido, Rouhiainen define la inteligencia artificial como:
Podríamos decir que la IA es la capacidad de las máquinas para usar algoritmos,
aprender de los datos y utilizar lo aprendido en la toma de decisiones tal y como lo haría
pág. 9492
un ser humano. Sin embargo, a diferencia de las personas, los dispositivos basados en
IA no necesitan descansar y pueden analizar grandes volúmenes de información a la
vez. Asimismo, la proporción de errores es significativamente menor en las máquinas
que realizan las mismas tareas que sus contrapartes humanas”. (ROUHIAINEN, Lasse,
2018)
Así, descendiendo al contexto jurídico, la definición de robótica proporcionada por la NASA, que
concibe a los robots como máquinas capaces de realizar trabajos humanos con diversos grados de
autonomía, adquiere relevancia particular al reflexionar sobre las implicaciones de su aplicación en el
Derecho. Esta perspectiva permite abordar los desafíos y oportunidades que surgen al incorporar robots
y sistemas automatizados en los ordenamientos jurídicos.
Ronald Cárdenas, al reflexionar sobre el impacto de la inteligencia artificial en la administración de
justicia, plantea un interesante debate sobre los límites y posibilidades de los llamados “jueces robot”.
Aunque reconoce la capacidad superior de las máquinas para procesar grandes volúmenes de
información con rapidez y precisión, enfatiza que la esencia de la justicia no se reduce únicamente al
conocimiento técnico. Aspectos como la prudencia, el sentido común y la sensibilidad social son
elementos insustituibles que trascienden las capacidades de una máquina. En este sentido, rdenas
afirma:
“Ahora bien, ¿por qué un robot no podría ser un juez? Porque el robot puede tener y
manejar mayor información que un magistrado y puede, sin duda, procesarla mucho
más rápido. La justicia no es solo conocimiento, sino también prudencia, tino, sentido
común, criterio y sensibilidad social al aplicarla. Por ello, la inteligencia artificial puede
asumir gran parte del proceso y ser un excelente, expeditivo y eficiente apoyo, pero la
última palabra en un juicio siempre la tendrá un humano. Es el mismo criterio que se
aplica en Estonia. El robot no resuelve, solo identifica patrones de decisión que pueden
ilustrar al juez y contribuir a la mejor formación de su criterio”. (CÁRDENAS, Ronald,
2021) (Negrilla fuera del texto)
La posibilidad de que un robot asuma la función del juez plantea un debate profundo sobre la esencia
misma de la justicia. Aunque los sistemas de inteligencia artificial pueden procesar grandes volúmenes
pág. 9493
de información con mayor rapidez y precisión que un togado humano, la justicia trasciende el ámbito
del mero análisis técnico.
Elementos como la interpretación, el análisis probatorio, las reglas de la sana crítica y la comprensión
de las particularidades sociales y culturales son esenciales en la toma de decisiones judiciales, puesto
que los contextos sociales son cambiantes con mucha ligereza y, hasta ahora, estas capacidades son
exclusivamente humanas.
Por tanto, la inteligencia artificial y la robótica pueden desempeñar un rol complementario, ayudando
en la identificación de patrones o proporcionando insumos que enriquecen el criterio del juez; sin
embargo, la decisión final, aquella que define el rumbo de un litigio o garantiza la protección de
derechos, debe mantenerse bajo la autoridad de un ser humano, que pueda ver su gestión, eso , con
mayor celeridad, gracias al apoyo de las nuevas tecnologías.
Carolina Robino, en su análisis sobre el uso de robots en el ámbito judicial, destaca el papel crucial de
estas herramientas como auxiliares en los procesos de toma de decisiones. Lejos de sustituir al ser
humano en la administración de justicia, estas tecnologías tienen el potencial de optimizar tareas
específicas que requieren análisis extensivo de datos y procesamiento eficiente de información. Robino
señala cómo, en diversos contextos, estas herramientas ya se utilizan para realizar tareas complejas,
ilustrando su aporte en áreas como la evaluación de pruebas, el análisis de riesgos y hasta el cálculo de
fianzas, como ocurre en Estados Unidos. En sus palabras:
Los robots pueden ayudar enormemente a evaluar peritajes, declaraciones testimoniales
y pruebas, a esbozar un perfil de las partes del proceso, evaluar riesgos, proyectar
indemnizaciones, evaluar virtualmente autopsias, comparar sentencias, identificar
criterios, etcétera, ofreciendo todo un nuevo mundo de posibilidades. En Estados
Unidos ya se usan robots con el objeto de calcular las fianzas para una libertad
condicional (ROBINO, Carolina, 2020).
De esta manera, por un lado se destacan los beneficios en términos de eficiencia, como la
automatización de procesos documentales o la predicción de decisiones judiciales; por otro, se plantean
interrogantes fundamentales sobre la responsabilidad derivada de las decisiones autónomas de estas
máquinas y su impacto en la noción de justicia. A medida que los ordenamientos jurídicos enfrentan
pág. 9494
estas innovaciones, es imperativo evaluar si las estructuras normativas existentes son suficientes para
regular las acciones de los robots y garantizar que su uso respeta los principios esenciales del Derecho.
Lo que podemos ir evidenciando es que se hace necesario que exista siempre una superioridad jerárquica
de índole humana.
Ahora bien, la inteligencia artificial (IA), definida como la capacidad de las máquinas para aprender,
analizar datos y tomar decisiones de manera análoga a los seres humanos, representa un avance
tecnológico que trasciende los límites de la eficiencia tradicional y que marca un hito histórico para el
siglo XXI. Su capacidad para procesar volúmenes masivos de información en tiempo real y con una
tasa de error significativamente reducida respecto a los humanos la posiciona como una herramienta
que puede llegar a convertirse en indispensable dentro del ámbito jurídico.
En este contexto, la IA no solo optimiza tareas administrativas, como la revisión documental o la
organización de expedientes, sino que también tiene el potencial de asistir en la predicción de fallos
judiciales y en el análisis de normativas o precedentes jurisprudenciales. No obstante, estas capacidades
suscitan interrogantes respecto a ¿cómo garantizar que las decisiones basadas en IA respetan principios
fundamentales como la imparcialidad, la equidad, la responsabilidad, la seguridad jurídica y los
derechos humanos. En este sentido, el uso de IA en el Derecho no solo exige una regulación adecuada,
sino también una reflexión ética sobre los límites de su implementación y el equilibrio entre sus
beneficios y los riesgos asociados. Sobre este particular, en Europa, Asia y algunos países de América
Latina ya se han venido adelantando esfuerzos para tal fin.
Europa, por ejemplo, ha tomado la delantera en la regulación de la inteligencia artificial al adoptar «La
Ley de la IA», una de las primeras normativas globalmente reconocidas en este ámbito. Formalmente
aprobada por el Consejo Europeo en mayo de 2024 y en vigor desde el 1 de agosto del mismo año, esta
legislación establece un marco normativo que busca abordar los desafíos éticos, jurídicos y sociales
asociados con el desarrollo y uso de la Inteligencia Artificial en el continente. La Ley introduce un
enfoque basado en el análisis y clasificación de los sistemas de IA según el nivel de riesgo que
representan para los usuarios, permitiendo así una regulación proporcional que equilibra la innovación
tecnológica con la protección de derechos fundamentales. Este enfoque permite garantizar la seguridad
pág. 9495
y confiabilidad de estos sistemas, promoviendo una adopción responsable en todo el continente
europeo.
La Unión Europea, al abordar la regulación de la inteligencia artificial, ha establecido claramente los
objetivos fundamentales de su legislación sobre el tema, buscando equilibrar el avance tecnológico con
la protección de los derechos fundamentales. En un contexto donde la adopción de la IA se expande
rápidamente, es crucial que su implementación se realice bajo principios que prioricen la seguridad, la
salud y el respeto a los derechos humanos, sin perder de vista la sostenibilidad y la innovación. En este
sentido, la Ley de la IA señala enfáticamente que:
El objetivo del presente Reglamento es mejorar el funcionamiento del mercado
interior y promover la adopción de una inteligencia artificial (IA) centrada en el ser
humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la
salud, la seguridad y los derechos fundamentales consagrados en la Carta, incluida la
democracia, el Estado de Derecho y la protección del medio ambiente, frente a los
efectos nocivos de los sistemas de IA en la Unión y apoyando la innovación. (Unión
Europea, 2024a)
El propósito principal de la ley es establecer estándares claros que promuevan una inteligencia artificial
confiable y alineada con los principios éticos del ordenamiento jurídico del continente. Para ello,
identifica los riesgos asociados con el uso de sistemas de IA, como la discriminación, la invasión de la
privacidad y las amenazas a la seguridad jurídica, y propone medidas específicas para mitigar dichos
peligros. Además, el cuerpo normativo reconoce la necesidad de abordar los riesgos generados por
modelos de IA de alto impacto, como los sistemas generativos y las tecnologías de decisión autónoma.
Esta legislación no solo fija un precedente para otras del mundo entero, sino que también posiciona a
Europa como un referente en la creación de marcos jurídicos que articulan las nuevas tecnologías con
la protección de los derechos humano, poniéndola así a la vanguardia de las dinámicas cambiantes del
siglo XXI.
Además, en su enfoque sobre la regulación de la inteligencia artificial, la Unión Europea no solo aboga
por la creación de sistemas de IA centrados en el ser humano, sino que también pone un énfasis
pág. 9496
particular en la necesidad de supervisión humana, especialmente cuando se trata de sistemas
considerados de alto riesgo.
La normativa subraya que, aunque estas tecnologías deben ser diseñadas para minimizar riesgos, su
implementación no debe prescindir de la intervención humana para prevenir posibles daños a la salud,
seguridad o derechos fundamentales. Así, el cuerpo normativo establece:
Los sistemas de IA de alto riesgo se diseñarán y desarrollarán de tal manera, incluso
con herramientas de interfaz hombre-máquina adecuadas, que puedan ser supervisados
eficazmente por personas físicas durante el período en que estén en uso. (…) La
supervisión humana tendrá por objeto prevenir o minimizar los riesgos para la salud, la
seguridad o los derechos fundamentales que puedan surgir cuando un sistema de IA de
alto riesgo se utiliza de conformidad con su finalidad prevista o en condiciones de uso
indebido razonablemente previsible, en particular cuando dichos riesgos persistan a
pesar de la aplicación de otros requisitos establecidos en la presente sección. (Unión
Europea, 2024b) (Negrilla fuera del texto).
Como puede detallarse, una vez más se hace especial énfasis en que no puede ser absoluta la autonomía
entregada a la inteligencia artificial. La normativa europea destaca la importancia de garantizar que los
sistemas de inteligencia artificial clasificados como de alto riesgo estén diseñados para permitir una
supervisión humana efectiva durante su uso.
Este principio busca asegurar que las personas puedan intervenir en caso de que surjan riesgos para la
salud, la seguridad o los derechos fundamentales, ya sea en situaciones de uso regular o frente a
escenarios de posible uso indebido. La supervisión humana, por tanto, se erige como una salvaguarda
esencial, complementando los mecanismos técnicos de seguridad para mitigar amenazas que no se
resuelven únicamente mediante el diseño del sistema. Este enfoque subraya la responsabilidad ética y
jurídica de mantener el control humano como un pilar central en el uso de tecnologías de alto impacto,
priorizando la protección de valores fundamentales en contextos donde la automatización presenta
riesgos significativos.
Por su parte, Asia, también ha surgido como un actor clave en la regulación de la inteligencia artificial.
Concretamente, la República Popular de China ha liderado estos esfuerzos mediante la promulgación,
pág. 9497
en 2023, de la Ley General Reguladora de la Inteligencia Artificial. Esta normativa, compuesta por 73
artículos, surge del Plan de Trabajo Legislativo 2023 elaborado por el Consejo de Estado como
consecuencia del XX Congreso Nacional del Partido Comunista de China, celebrado del 16 al 22 de
octubre de 2022; y establece un marco jurídico integral que rige las actividades de investigación,
desarrollo, suministro y uso de la IA en el país.
Se destaca por su enfoque centrado en el respeto a los derechos humanos, lo cual refleja la intención
del gobierno chino de alinear el desarrollo tecnológico con valores éticos y principios universales. A
través de esta ley, China busca no solo regular la IA en su territorio, sino también posicionarse como
otro referente global en la gobernanza tecnológica.
Esta normativa también tiene especial énfasis respecto al ámbito de aplicación y la centralidad en la
persona humana, al señalar:
“El artículo 2, define el ámbito de aplicación de esta norma, que “se aplica a la
investigación y desarrollo, suministro y uso de la IA, así como a la regulación de la IA,
dentro de las fronteras de la República Popular de China (RPC)”. Sin embargo, añade
una previsión de extraterritorialidad al establecer que “Las actividades relacionadas con
la investigación y el desarrollo, el suministro y el uso de la IA realizadas fuera del
territorio de la RPC que afecten o puedan afectar a la seguridad nacional, los intereses
públicos o los derechos e intereses legítimos de personas u organizaciones de la RPC,
están sujetas a esta ley”. (…) Según el artículo 4, “Las actividades relacionadas con la
investigación y el desarrollo, el suministro o el uso de la IA deben estar centradas en
las personas y dirigir la inteligencia hacia el bien. Garantizar que los humanos puedan
supervisar y controlar continuamente la IA, con el objetivo último de promover siempre
el bienestar de la humanidad.” (Diario La Ley, 2023a) (Negrilla fuera del texto)
Uno de los aspectos más relevantes de esta ley se encuentra en su artículo 4, que establece como
principio rector que las actividades relacionadas con la IA deben estar centradas en las personas, con el
objetivo de dirigir el desarrollo tecnológico hacia el bienestar de la humanidad. Este enfoque humanista
enfatiza la necesidad de garantizar que los seres humanos supervisen y controlen continuamente los
sistemas de IA, evitando así los riesgos asociados con la autonomía total de estas tecnologías. Al
pág. 9498
priorizar el bienestar colectivo, la normativa establece un estándar ético para el desarrollo y uso de la
IA, el cual podría servir como modelo para otras legislaciones interesadas en integrar principios
humanitarios en sus propios ordenamientos.
Además, la Ley General Reguladora de la Inteligencia Artificial se construye sobre unos principios
debidamente establecidos, entre los que se encuentran:
Según los artículos 5 a 9 de la norma, los investigadores y desarrolladores,
proveedores y usuarios de sistemas de IA deben aplicar los principios de seguridad y
robustez; apertura (Openness), transparencia y explicabilidad; responsabilidad
proactiva (Accountability) y equidad e igualdad. Igualmente se fomentará el uso de
energías eficientes, para la protección del medio ambiente, en el desarrollo de estas
tecnologías. Estos principios aparecen desarrollados con detalle en el Capítulo 4 de la
norma (arts. 33 a 50), que regulan los principios generales (sección 1.ª), las obligaciones
de los desarrolladores e investigadores (sección 2.ª), que incluyen un sistema de gestión
de riesgos, y las obligaciones de los distribuidores (sección 3.ª), que incluyen un sistema
de información de la puesta en marcha del sistema, de auditoría y de gestión interna.
(Diario La Ley, 2023b)
Estos principios buscan garantizar que la implementación de la IA en la RPC (República Popular China)
sea confiable, accesible y respetuosa con los derechos de todos los sectores de la sociedad. El énfasis
en la transparencia y la responsabilidad fomenta la rendición de cuentas en el uso de sistemas
automatizados, mientras que la equidad e igualdad aseguran que los beneficios de la tecnología se
distribuyan de manera justa. Este marco regulatorio no solo responde a las necesidades internas de
China, sino que también contribuye al debate global sobre la regulación de la IA, ofreciendo una
perspectiva que combina desarrollo tecnológico, principios éticos, cuidado del medio ambiente y
derechos fundamentales.
A diferencia de otros continentes, América no cuenta con una normativa general que regule el uso de
la inteligencia artificial (IA) de manera integral. Sin embargo, diversos países han comenzado a
implementar iniciativas individuales para abordar los desafíos éticos, sociales y tecnológicos asociados
con esta tecnología.
pág. 9499
Estas acciones reflejan un reconocimiento creciente de la importancia de regular la IA, tanto para
garantizar su desarrollo responsable como para proteger los derechos fundamentales de los ciudadanos.
En Estados Unidos, uno de los países líderes en innovación tecnológica, se han dado pasos significativos
hacia la autorregulación de la IA. En 2023, el presidente Joe Biden anunció un acuerdo con las
principales empresas dedicadas al desarrollo de esta tecnología, enfocándose en garantizar la seguridad
de los sistemas de IA a través de pruebas exhaustivas antes de su lanzamiento. Este enfoque también
promueve la transparencia, asegurando que las empresas compartan información relevante sobre sus
sistemas, un aspecto esencial para construir confianza en la adopción de estas tecnologías. Aunque esta
iniciativa no constituye una ley propiamente, establece una base para futuras regulaciones más
completas.
Como se señala en la Revista Digital Garrigues (2024), además de estas medidas, también se incluye
una propuesta de legislación para reforzar la protección de datos, lo que marca un paso significativo en
el enfoque regulatorio de la privacidad en el país. Así lo menciona:
En el caso de EEUU, además, la Orden Ejecutiva dicta, entre otras muchas, las
siguientes medidas: (i) impulsa la aprobación de la Carta de Derechos de la IA para su
uso en la administración; (ii) exige asegurar la equidad en el sistema de justicia penal
con el desarrollo de mejores prácticas del uso de la IA en la imposición de penas o la
libertad condicional, entre otros; (iii) impulsa el uso responsable de la IA en la atención
sanitaria y el desarrollo de medicamentos asequibles que salven vidas; y (iv) propone
la elaboración de un informe sobre las posibles repercusiones de la IA en el mercado
laboral y el estudio de las opciones para reforzar el apoyo federal a los trabajadores.
Además, junto con la publicación de la Orden Ejecutiva, el presidente Biden pide al
Congreso la aprobación de una legislación sobre protección de datos, lo que supone un
hito en el enfoque regulatorio de la privacidad en Estados Unidos. (Revista Digital
Garrigues, 2024)
Canadá, por su parte, ha propuesto la Ley de Inteligencia Artificial de Datos (AIDA) en 2022, que busca
establecer un marco regulatorio claro y robusto. Esta ley pretende garantizar que los sistemas de IA
sean seguros y no discriminatorios, al tiempo que responsabiliza a las empresas por la forma en que
pág. 9500
desarrollan y utilizan estas tecnologías. La propuesta refleja el compromiso del país con los principios
de seguridad jurídica y equidad, y podría servir como modelo para otros estados del continente que aún
no han avanzado significativamente en esta área.
Como describe el Instituto Investigate To Innovate (I.T.I., 2022a), AIDA integra técnicas avanzadas de
IA, como la detección de patrones, la predicción, la extracción de conversaciones en diferentes idiomas,
y la identificación de relaciones entre contenidos, lo que optimiza el análisis de grandes volúmenes de
datos en contextos críticos. En sus palabras:
El proyecto AIDA tiene como objetivo principal incrementar las capacidades de los
cuerpos de seguridad (LEAs) para combatir el cibercrimen y las actividades terroristas
a través de la innovación en la minería del conocimiento, la fusión de información, las
técnicas de inteligencia artificial y los servicios de análisis. Entre los cuales se incluye:
Detección y Monitorización, Minería, con grandes cantidades de información de tipo
heterogéneo, Transformación de los datos, estructurada y no estructura, Detección de
patrones, Predicción, Extracción y resumen de conversaciones en diferentes idiomas,
Enlaces y Relaciones entre contenidos, Revelaciones y Descubrimiento de información,
Garantías en la cadena de custodia; y Habilitadores de correlaciones. (I.T.I., 2022a)
El proyecto AIDA, en su continuo enfoque hacia la mejora de la seguridad y la lucha contra el
cibercrimen y el terrorismo, avanza aún más en la implementación de tecnologías de vanguardia. Según
señala el Instituto Investigate To Innovate (I.T.I., 2022b), el proyecto también busca desarrollar un
framework analítico robusto basado en Big Data, que combine herramientas de minería de datos,
aprendizaje automático (ML) e inteligencia artificial (IA) para el tratamiento eficiente de grandes flujos
de información. Este enfoque permite mejorar la prevención de delitos, así como la predicción y
detección de actividades terroristas, garantizando que el beneficio social de estas tecnologías se
mantenga en el centro de su implementación. Además, AIDA está diseñado para operar en contextos
específicos como el cibercrimen y el contraterrorismo, con el fin de identificar patrones y anticipar
amenazas antes de que se materialicen. Así lo señala:
El proyecto AIDA tiene como objetivo el desarrollo de un framework de análisis Big
Data que contendrá un conjunto de soluciones analíticas y de minería de datos, que sean
pág. 9501
eficientes y efectivas para el tratamiento de flujos de trabajo estandarizados, de
adquisición de contenidos extensivos, extracción y fusión información, gestión del
conocimiento y enriquecimiento a través de aplicaciones novedosas de procesamiento
Big data, ML y IA y predicción analítica y visual. Todo esto se realizará de una forma
que garantice que el beneficio social y sus efectos sean parte integral de la ejecución
del proyecto. Para la ejecución del proyecto, el proyecto AIDA cuenta con dos casos
de uso: Cibercrimen: orientado a abordar la prevención y disminuir el tiempo en la
identificación de este tipo de delitos para preparar y desplegar las contramedidas
apropiadas; Contraterrorismo: cuyo objetivo es trabajar para predecir los usos
potenciales que pueden hacer los terroristas de las nuevas tendencias y tecnologías.
(I.T.I., 2022b)
En América Latina, países como Argentina, Colombia, Costa Rica, México y Perú carecen de una
normativa general sobre IA, aunque han avanzado en la protección de datos personales como parte de
su marco legislativo. Además, estos países tienen proyectos en curso que buscan abordar aspectos
relacionados con la IA, lo que evidencia un interés creciente por regular esta tecnología en la región.
Este enfoque fragmentado, aunque limitado, representa un paso importante hacia la consolidación de
marcos legales que aborden los desafíos específicos de la IA en contextos locales.
Por su parte, Brasil y Chile se destacan como referentes en la región debido a sus esfuerzos en la
regulación de la IA. Brasil, en particular, participa activamente en comités internacionales sobre
regulación tecnológica y cuenta con legislaciones sectoriales específicas, como su marco regulatorio en
protección de datos personales.
De acuerdo con la International Association of Privacy Professionals (I.A.P.P., 2024), la Autoridad
Nacional de Protección de Datos Personales (ANPD) ha liderado estas discusiones en Brasil,
organizando seminarios, conferencias y emitiendo documentos oficiales para abordar la regulación de
la IA. Estos esfuerzos incluyen un análisis detallado de proyectos de ley y la convocatoria a la sociedad
civil para comentar sobre la viabilidad de establecer un "sandbox regulatorio", un espacio experimental
para la regulación de la IA y la protección de datos personales, lo que demuestra un compromiso con el
desarrollo de políticas públicas transparentes y responsables en este ámbito. Señala lo siguiente:
pág. 9502
En el contexto brasileño, estas discusiones han sido protagonizadas, en parte, por la
Autoridad Nacional de Protección de Datos Personales (ANPD, por sus siglas) entidad
que, durante la segunda mitad del 2023, emitió una serie de documentos, organizando
seminarios y conferencias, y emitió comunicados oficiales relacionados con la
regulación de la IA en el país. Dentro de este compendio de documentos, se incluyen
análisis exhaustivos de proyectos de ley, así como un estudio técnico para sustentar la
convocatoria a comentarios por parte de la sociedad civil sobre la viabilidad de
establecer y administrar un sandbox regulatorio para discutir cuestiones relacionadas
con temas que involucran la protección de datos personales y la IA. (I.A.P.P., 2024)
Chile ha avanzado en el diseño de políticas públicas que buscan integrar la IA de manera segura y
eficiente en diversos sectores. Estas iniciativas, aunque diversas en su alcance y enfoque, subrayan la
importancia de la cooperación regional e internacional para establecer estándares comunes que guíen el
desarrollo de la IA en el continente.
Según la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO,
2024), Chile ha dado un paso importante en esta dirección al lanzar una política nacional de IA
actualizada y un plan de acción, además de presentar una propuesta de ley que busca regular el
desarrollo ético y responsable de la IA. Este proyecto de ley, que fue presentado en un evento
significativo en La Moneda, propone una clasificación de los sistemas de IA según el riesgo que
presentan, además de establecer principios éticos acordes con las recomendaciones de la UNESCO
sobre la ética en la IA. En esta propuesta, se resalta el enfoque en la protección de la salud, seguridad y
derechos fundamentales de las personas, así como la importancia de garantizar la protección de los
consumidores frente a los efectos nocivos de algunos usos de la tecnología. Así lo dijo:
El país, siguiendo las recomendaciones del Reporte sobre la Evaluación del estado de
preparación en materia de Inteligencia Artificial (IA) elaborado por la UNESCO, lanzó
la Política Nacional de IA actualizada y su plan de acción, así como una propuesta de
ley de IA que busca regular y fomentar el desarrollo ético y responsable de esta
tecnología. Estos hitos fueron presentados en un importante evento que tuvo lugar el
jueves 2 de mayo en La Moneda en presencia de la Sra. Audrey Azoulay, Directora
pág. 9503
General de la UNESCO, la Sra. Aisén Etcheverry, Ministra de Ciencia, Tecnología,
Conocimiento e Innovación de Chile y la Directora de la Oficina Regional UNESCO
Santiago, Sra. Esther Kuisch Laroche. El proyecto de ley sobre IA presentado por el
Ministerio de Ciencia, Tecnología, Conocimiento e Innovación pretende promover la
creación, el desarrollo, la innovación y la implantación de sistemas de IA centrados en
el ser humano y garantizar la protección de la salud, la seguridad y los derechos
fundamentales de las personas, así como la protección de los consumidores frente a los
efectos nocivos de determinados usos de la IA. El proyecto de ley propone una
intersección entre la autorregulación y la regulación basada en el riesgo, clasificando
los sistemas de IA en aquellos que presentan un riesgo inaceptable; un nivel de riesgo
alto; un nivel de riesgo limitado; y ningún riesgo evidente. El proyecto de ley establece
una serie de principios éticos internacionalmente aceptados, en consonancia con la
Recomendación de la UNESCO sobre la Ética de la IA. (UNESCO, 2024)
Argentina, en su lugar, se ha posicionado como un referente en la incorporación de inteligencia artificial
al sistema judicial. Este país ha apostado por el desarrollo de herramientas tecnológicas que no solo
optimizan los tiempos procesales, sino que también ofrecen soluciones basadas en un análisis más
preciso y eficiente de la información legal y jurídica. Estas iniciativas reflejan un compromiso por
modernizar la administración de justicia, enfrentando retos como la congestión judicial y la necesidad
de garantizar decisiones más equitativas. Un ejemplo emblemático de la implementación de la
inteligencia artificial en el ámbito judicial es el sistema Prometea, desarrollado por el Ministerio Público
de la Ciudad Autónoma de Buenos Aires, en colaboración con la Facultad de Derecho de la Universidad
de Buenos Aires. Según Ronald Cárdenas (2021a), Prometea es una herramienta de inteligencia
artificial multicapa que, con una efectividad del 96%, se encarga de sugerir soluciones basadas en la
inferencia probabilística y en el análisis de casos análogos. Este avance ha permitido una reducción
significativa en los tiempos de respuesta de la fiscalía, pasando de tres meses a solo cinco días en el
caso de dictámenes vinculados a amparos judiciales relacionados con el derecho a la vivienda. Este
sistema, además, es objeto de una revisión constante para prevenir sesgos algorítmicos, lo que
demuestra el compromiso con la ética en su aplicación. En sus palabras:
pág. 9504
El Ministerio Público de la Ciudad Autónoma de Buenos Aires, en conjunto con la
Facultad de Derecho de la Universidad de Buenos Aires, ha desarrollado Prometea, un
sistema de inteligencia artificial multicapa que se ha venido aplicando con un 96% de
efectividad según sus promotores. El sistema sugiere soluciones teniendo en cuenta
casos análogos, siguiendo una inferencia probabilística, y es revisado constantemente
para evitar cualquier sesgo algorítmico. Si antes la conclusión de un dictamen le tomaba
tres meses a la fiscalía, ahora tarda cinco días como máximo. Actualmente, Prometea
se utiliza para amparos judiciales en cuestiones vinculadas con el derecho a la
vivienda. (CÁRDENAS, Ronald, 2021a)
Ahora bien, Colombia no ha sido ajena a la revolución tecnológica que representa la inteligencia
artificial en el ámbito jurídico. Aunque los avances en el país son aún incipientes en comparación con
modelos establecidos en otras regiones y detallados previamente, las primeras experiencias nacionales
reflejan una visión de futuro que combina innovación y prudencia. Iniciativas como la implementación
del sistema "Pretoria" por parte de la Corte Constitucional y el uso de herramientas de IA en el Juzgado
de Puerto Rico, Caquetá, son ejemplos destacados de cómo el país comienza a integrar estas tecnologías
en su ordenamiento jurídico.
Estas experiencias no solo buscan mejorar la eficiencia procesal, sino también plantear una reflexión
sobre el impacto de la IA en la protección de los derechos fundamentales y la equidad en el acceso a la
justicia así como analizar los desafíos y oportunidades que enfrenta Colombia en su camino hacia una
justicia más moderna y tecnológicamente avanzada. Se presentan al menos tres ejemplos relacionados
con la inteligencia artificial.
Un primer ejemplo de la utilización de la inteligencia artificial en el ámbito judicial en Colombia es el
sistema Siarelis, desarrollado por la Superintendencia de Sociedades. Según Claudia Guauque (2018),
Siarelis tiene la capacidad de asistir al juez en la elaboración de borradores de resoluciones y en la
respuesta a consultas de las partes involucradas en los litigios. Este sistema, diseñado para agilizar los
procesos en casos societarios, no solo ofrece recomendaciones sobre si aceptar o no las pretensiones del
demandante, sino que también presenta los antecedentes judiciales más relevantes y contribuye a la
pág. 9505
elaboración de autos y sentencias. De este modo, Siarelis facilita una justicia más rápida y eficiente, al
mismo tiempo que reduce las horas de trabajo del juez. Así lo mencionó:
En Colombia, existe Siarelis, un sistema basado en inteligencia artificial que puede
ayudar al juez hasta a escribir los borradores de sus resoluciones y puede absolver
consultas de las partes en disputa. Creado por la Superintendencia de Sociedades para
ayudar a resolver litigios societarios, da su “opinión” al juez acerca de si debe aceptar
o no las pretensiones del demandante, mostrando, en su defensa, los antecedentes
judiciales más relevantes para el caso, y preparando borradores de autos y sentencias
con el consiguiente ahorro de horas de trabajo, favoreciendo una justicia más ágil”.
(GUAUQUE, Claudia, 2018)
Este sistema emplea inteligencia artificial para asistir a los jueces en diversas etapas del proceso judicial,
desde la elaboración de borradores de decisiones hasta la presentación de análisis sobre la viabilidad de
las pretensiones del demandante. Además, Siarelis recopila y organiza los antecedentes
jurisprudenciales más relevantes, permitiendo una toma de decisiones más informada y eficiente. Al
reducir significativamente el tiempo necesario para la redacción de autos y sentencias, este sistema
contribuye a la agilización de la justicia, demostrando cómo la tecnología puede optimizar los
procedimientos legales sin reemplazar el juicio humano.
El segundo caso relevante es el sistema Pretoria, implementado en la Corte Constitucional de Colombia.
Según Ronald Cárdenas (2021b), Pretoria, inspirado en el sistema Prometea, tiene la capacidad de leer
expedientes, buscar información pertinente, y clasificar y analizar casos judiciales. Además, puede
predecir decisiones y preparar resúmenes de sentencias de manera rápida, en cuestión de minutos o
incluso segundos. Este sistema, al igual que Siarelis, contribuye a mejorar la eficiencia en el proceso
judicial, permitiendo a los jueces y magistrados acceder a información crítica de forma ágil y precisa.
Textualmente señala:
Dicho país también cuenta, en su Corte Constitucional, con Pretoria basado en
Prometea, un sistema que puede leer expedientes, buscar información de interés y
clasificarla, categorizar y analizar casos, predecir decisiones y preparar digitalmente
pág. 9506
resúmenes de sentencias, todo en minutos o hasta en segundos. (CÁRDENAS, Ronald,
2021b)
Este avanzado recurso tecnológico utiliza inteligencia artificial para realizar tareas complejas de manera
rápida y eficiente, como la lectura y análisis de expedientes, la búsqueda de información relevante, y la
organización y clasificación de casos, sobre todo en sede de acción de tutela. Además, Pretoria es capaz
de predecir posibles decisiones judiciales y elaborar resúmenes digitales de sentencias en tiempo récord,
optimizando significativamente los procesos internos de la Corte Constitucional. Esta herramienta
representa un paso importante hacia la modernización del sistema judicial colombiano, al combinar
precisión tecnológica con celeridad en la gestión de casos.
El tercer caso insignia es ArIA, una iniciativa tecnológica implementada para la atención de usuarios
en el Juzgado Promiscuo del Circuito de Puerto Rico, Caquetá. Aunque, según Rosa Castellanos (2022),
el aplicativo estuvo pausado desde 2021 debido a dificultades en las actualizaciones del programa, su
diseño sigue siendo relevante. ArIA fue concebida como parte de la visión del despacho de ser "el
primer Despacho del País en estar a la vanguardia tecnológica", con el objetivo de promover la
administración de justicia sin papel, realizar diligencias virtuales, y aplicar inteligencia artificial y
teletrabajo. Este sistema se mantiene como una propuesta valiosa para el desarrollo futuro de
tecnologías en el ámbito judicial. Así lo dijo:
ArIA es el ejemplo de la implementación diseñada para la atención de usuarios de la
justicia. Particularmente dirigida a los del Juzgado Promiscuo del Circuito de Puerto
Rico, Caquetá. Conviene aclarar que para la fecha en la que se realizó esta
investigación, el aplicativo se encontraba pausado desde el 2021 por dificultades en las
actualizaciones del programa. Aun así, es importante su descripción para los objetivos
de este trabajo, pues, de todas formas, sigue siendo una iniciativa tecnológica dentro de
la Rama Judicial, cuya documentación puede resultar valiosa para futuros desarrollos,
tal y como se planteó en el PETD. Bajo ese contexto, ArIA fue otra propuesta de
tecnología que desarrolló el despacho como parte de la visión que tiene de “Ser el
primer Despacho del País en estar a la vanguardia tecnológica aportando a la
administración de Justicia y al planeta, la NO utilización del papel, la realización de
pág. 9507
diligencias virtuales, emplear la Inteligencia Artificial y el teletrabajo”
(CASTELLANOS, Rosa, 2022)
ArIA representa un ejemplo significativo de innovación en la administración de justicia en Colombia,
particularmente en el Juzgado Promiscuo del Circuito de Puerto Rico, Caquetá. Este sistema buscó
integrar y automatizar todas las herramientas del despacho, desde la gestión de peticiones hasta el
desarrollo de un asistente virtual más avanzado que conectara y procesara todas las funcionalidades del
juzgado. A pesar de haber sido suspendido en 2021 por dificultades técnicas, el proyecto es emblemático
por su desarrollo independiente y autodidacta, sin un respaldo directo del Consejo Superior de la
Judicatura, y por haber sorteado los costos mediante el uso de licencias libres y recursos propios. Esta
experiencia no solo evidencia el potencial de la inteligencia artificial en la justicia, sino también los
desafíos que enfrentan iniciativas locales en términos de sostenibilidad y expansión, especialmente
cuando depende de entrenamiento constante y actualizaciones tecnológicas en un contexto de
limitaciones presupuestales.
En el ámbito jurisprudencial, el 2024 trajo una decisión hito que abre todo un portal hacia la utilización
de la inteligencia artificial en la rama judicial colombiana. La Corte Constitucional, en un ejercicio de
prevención y orientación, se pronunció finalmente sobre la necesidad de garantizar un uso responsable
y ético de herramientas como ChatGPT y otras de su naturaleza. Este llamado no solo subraya la
relevancia de adoptar buenas prácticas y de salvar principios esenciales como el debido proceso y la
autonomía judicial, sino que también evidencia la preocupación por armonizar los avances tecnológicos
con los valores propios de un Estado Social de Derecho. A partir de este marco, resulta crucial analizar
la Sentencia T-323 de 2024, que se erige como un hito en la regulación del uso de la inteligencia
artificial en el sistema de justicia colombiano.
Además de los principios y criterios orientadores en cuanto al uso de herramientas de IA como
ChatGPT, que ya muchos se han ido detallando en este artículo, la Corte Constitucional determinó que
los lineamientos que fije el Consejo Superior de la Judicatura sobre el uso de la IA en la Rama Judicial
deben tener en cuenta, como mínimo, estas diez pautas:
pág. 9508
1. La IA no puede ser usada para sustituir el razonamiento lógico y humano que es competencia de
cada juez.
2. La IA se podrá utilizar para la gestión administrativa y documental, como apoyo a la gestión judicial,
y para corregir y resumir textos, sin reemplazar la labor que se le ha atribuido al funcionario judicial,
evitando la transgresión de derechos, o la pérdida de imparcialidad o independencia del funcionario
judicial por los sesgos y alucinaciones de la IA.
3. Garantizar los principios de transparencia, responsabilidad y privacidad con relación al uso de la IA.
4. Identificar a un humano responsable (una persona individualizable e identificable) a quien se le
puedan plantear las preocupaciones relacionadas con las decisiones tomadas y que pueda evaluar las
intervenciones realizadas por la IA.
5. Materializar un lenguaje claro y comprensible para los seres humanos, sobre las respuestas que
genera la IA.
6. Emplear la autorregulación ética y los autocontroles al momento de apoyarse en IA para la gestión
judicial por parte de funcionarios y servidores judiciales.
7. El proceso de digitalización de la justicia debe hacerse respetando los derechos fundamentales y las
garantías para su acceso efectivo y su no vulneración, especialmente el debido proceso, sopesando
los riesgos potenciales de las nuevas tecnologías.
8. Adelantar las gestiones con las autoridades del Estado (Congreso de la República, Gobierno
nacional, Rama Judicial), agencias internacionales u organismos especializados para informar y
coordinar sobre los requerimientos que demande la Rama Judicial para el uso de IA.
9. Establecer un sistema de control, seguimiento, alerta, evaluación, mejora y divulgación de las
prácticas del uso de herramientas de IA por los despachos judiciales del país, como parte de las
rendiciones de cuentas de la Rama Judicial. Se deben identificar los casos de uso de la IA en las
decisiones de funcionarios judiciales.
10. Fomentar habilidades digitales en los operadores jurídicos creando cursos para comprender y discutir
sobre las nuevas tecnologías y la IA; construir de manera colectiva los temarios de los cursos entre
los servidores judiciales; incluir formación jurídica sobre IA en el curso concurso para ingresar en
la Rama. (CONSEJO SUPERIOR DE LA JUDICATURA, 2024)
pág. 9509
En tal virtud, el Consejo Superior de la Judicatura de Colombia, mediante el Acuerdo PCSJA24-12243
del 16 de diciembre de 2024, estableció un marco normativo integral para el uso y aprovechamiento de
la inteligencia artificial (IA) en la Rama Judicial, marcando un hito en la modernización de los servicios
judiciales al garantizar un enfoque ético, transparente y respetuoso con los derechos fundamentales.
Este acuerdo es de obligatorio cumplimiento para magistrados, jueces y empleados de todas las
jurisdicciones y especialidades, así como para las unidades administrativas de la Rama Judicial, y busca
maximizar los beneficios de las tecnologías de IA mientras se mitigan sus riesgos potenciales.
El acuerdo se fundamenta en principios claves que aseguran su implementación responsable, tales como
la primacía de los derechos fundamentales, la regulación ética, la protección de datos personales, la
seguridad de la información y la transparencia. Asimismo, promueve la no sustitución de la racionalidad
humana, garantizando que las herramientas de IA sirvan como complemento y no como reemplazo de
la labor intelectual de los operadores judiciales. Entre otros principios, se destacan la gobernanza
colaborativa, la supervisión humana, la explicabilidad y la prevención de riesgos, los cuales refuerzan
la confianza en la integración de estas tecnologías.
Dentro de las aplicaciones específicas, el acuerdo detalla un amplio rango de usos para la IA en la Rama
Judicial, agrupados en tres grandes categorías:
En el ámbito de la gestión administrativa y de soporte, las herramientas pueden utilizarse para tareas
como la redacción asistida de textos administrativos, la organización de agendas, la traducción de
documentos y la clasificación de necesidades logísticas en los despachos.
En cuanto a la gestión judicial, se permite la asistencia en actividades como la búsqueda y síntesis
de información relevante para casos, la consulta de jurisprudencia, la transcripción de audiencias
con identificación de intervinientes y la redacción de borradores de providencias, siempre sujetas a
una revisión exhaustiva que garantice la calidad y la precisión de los resultados.
Por último, se contempla el uso de estas tecnologías en escenarios más complejos y de análisis
avanzados, como la simulación de escenarios de decisión, el análisis de datos estadísticos y la
asistencia en la motivación de decisiones judiciales, con observancia estricta de principios de
transparencia, responsabilidad y privacidad.
pág. 9510
Para garantizar un uso adecuado y seguro de estas herramientas, el acuerdo establece mecanismos de
supervisión humana y control continuo, con el objetivo de prevenir errores, sesgos o vulneraciones de
derechos. Además, se contempla un robusto plan de formación, liderado por la Escuela Judicial Rodrigo
Lara Bonilla en colaboración con la Unidad de Transformación Digital e Informática, que busca dotar
al personal judicial de competencias digitales e IA mediante una ruta de aprendizaje adaptada a las
diferencias sociodemográficas, necesidades específicas de cada cargo y niveles de conocimiento. Este
plan también incluye componentes teórico-prácticos, mecanismos de evaluación y posibles alianzas con
la academia, centros de pensamiento, investigación e innovación.
El acuerdo establece que la implementación de soluciones tecnológicas estará supervisada por la Unidad
de Transformación Digital e Informática, la cual priorizará acciones estratégicas para habilitar
proyectos institucionales basados en IA generativa. Estas herramientas solo podrán ser utilizadas si son
previamente determinadas, provistas, avaladas o habilitadas por el Consejo Superior de la Judicatura,
garantizando un uso respetuoso y ético en el cumplimiento de las funciones judiciales.
En síntesis, el Acuerdo PCSJA24-12243 consolida el compromiso de la Rama Judicial con la
modernización tecnológica, asegurando que la inteligencia artificial se convierta en una herramienta
para fortalecer la administración de justicia sin comprometer los principios éticos ni los derechos
fundamentales. Con estas directrices, Colombia se posiciona como un referente en la región para la
incorporación responsable de tecnologías avanzadas en el ámbito judicial, promoviendo una justicia
más ágil, accesible y acorde con las necesidades del siglo XXI.
CONCLUSIONES
La inteligencia artificial y la robótica se presentan como herramientas de enorme potencial para
transformar positivamente diversos ámbitos, incluyendo el judicial, donde pueden optimizar procesos,
reducir tiempos y mejorar la precisión en la toma de decisiones. Negarse a su implementación bajo el
argumento de temor o desconocimiento no solo es improductivo, sino que limita el avance hacia un
sistema de justicia más eficiente y accesible. Estas tecnologías, lejos de ser una amenaza, deben ser
vistas como aliados estratégicos para los operadores jurídicos, quienes pueden utilizarlas como apoyo
en tareas técnicas y repetitivas, mientras conservan el rol esencial de interpretar, razonar y decidir con
pág. 9511
base en la sensibilidad y prudencia humanas, elementos que ninguna máquina puede replicar
plenamente.
No obstante, el entusiasmo por estas innovaciones debe ir acompañado de una ética clara y de un marco
regulatorio que garantice su uso responsable y supervisado, sembrado en principios rectores claros.
La inteligencia artificial no debe desplazar al ser humano, sino complementarlo. La autonomía y la
independencia judicial, al igual que el respeto por los derechos fundamentales, deben ser innegociables
en esta transición tecnológica. El éxito radica en adoptar estas herramientas como auxiliares que
potencien las capacidades humanas, sin permitir que reemplacen el juicio crítico, la empatía y la
sensibilidad social que caracterizan a las decisiones de un juez. En este equilibrio, donde la tecnología
se integra sin suplantar, se encuentra la clave para construir un sistema de justicia moderno, eficaz y
profundamente humano.
REFERENCIAS BIBLIOGRÁFICAS
CÁRDENAS, Ronald. ¿Jueces robots? Inteligencia artificial y derecho. Revista Justicia y Derecho,
2021. https://doi.org/10.32457/rjyd.v4i2.1345
CASTELLANOS, Rosa. Inteligencia artificial en el sector de la justicia, Universidad de los Andes,
2022. Tomado de: http://hdl.handle.net/1992/64175
CONSEJO SUPERIOR DE LA JUDICATURA. ABC - Sentencia T-323 de 2024. Consejo Superior de
la Judicatura, 2024 Tomado de:
https://actosadministrativos.ramajudicial.gov.co/GetFile.ashx?url=~/App_Data/Upload/ANE
XO+1+PCSJC24-37.pdf
Diario La Ley. China aprueba una regulación de la inteligencia artificial y de la inteligencia artificial
generativa, 2023. Tomado de: https://diariolaley.laleynext.es/dll/2023/09/01/china-aprueba-
una-regulacion-de-la-inteligencia-artificial-y-de-la-inteligencia-artificial-
generativa#:~:text=LEY%20DE%20INTELIGENCIA%20ARTIFICIAL,22%20de%20octubr
e%20de%202022.
FACULTAD DE INGENIERÍA UNIVERSIDAD ORT URUGUAY. Qué es la robótica y cuáles son
sus principales usos - Universidad ORT Uruguay. Facultad de Ingeniería - Universidad ORT
pág. 9512
Uruguay [en línea]. [sin fecha]. Disponible en: https://fi.ort.edu.uy/blog/que-es-la-robotica-y-
cuales-son-sus-usos
GARRIGUES, Revista Digital. Así se está regulando la IA en la UE, EE.UU. y la OCDE: el difícil
equilibrio entre seguridad y fomento de la innovación, 2024. Tomado de:
https://www.garrigues.com/es_ES/garrigues-digital/asi-esta-regulando-ia-ue-eeuu-ocde-
dificil-equilibrio-seguridad-fomento
GUAUQUE, Claudia. El robot que entró al equipo de la supersociedades para asistir en pleitos
mercantiles, Revista Semana, 2018. Tomado de:
https://www.semana.com/nacion/articulo/supersociedades-integro-a-un-robot-para-asistir-a-
los-jueces-en-pleitos-
mercantiles/590406/#:~:text=Hace%20apenas%20unas%20semanas%2C%20la,para%20los%
20usuarios%20y%20podr%C3%A1
International Association of Privacy Professionals (I.A.P.P.). La ANPD y la inteligencia artificial en
Brasil, 2024. Tomado de: https://iapp.org/news/a/la-anpd-y-la-inteligencia-artificial-en-brasil
Investigate To Innovate (I.T.I.). AIDA- Artificial Intelligence and advanced Data Analytics for Law
Enforcement Agencies ITI, 2022. Tomado de: https://www.iti.es/proyectosidi/artificial-
intelligence-and-advanced-data-analytics-for-law-enforcement-
agencies/#:~:text=El%20proyecto%20AIDA%20tiene%20como,y%20los%20servicios%20de
%20an%C3%A1lisis
Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO). Chile lanza
una política nacional de IA y presenta un proyecto de ley sobre IA siguiendo las
recomendaciones de la UNESCO, 2024. Tomado de: https://www.unesco.org/es/articles/chile-
lanza-una-politica-nacional-de-ia-y-presenta-un-proyecto-de-ley-sobre-ia-siguiendo-las
ROBINO, Carolina. "Ya hay máquinas programadas para decidir sobre la vida y la muerte de los
humanos": los fascinantes (y urgentes) dilemas de enseñarle ética a inteligencias artificiales -
BBC News Mundo. BBC News Mundo [en línea]. 2020. Disponible en:
https://www.bbc.com/mundo/noticias-50869354
pág. 9513
ROUHIAINEN, Lasse. Inteligencia Artificial. Madrid, Alienta Editorial, 2018. ISBN: 978-84-17568-
08-5
Unión Europea. Ley de la IA, 2024. Recuperado de https://eur-lex.europa.eu/legal-
content/EN/TXT/?uri=CELEX%3A32024R1689