Con participación de la Rama Judicial, ONG, firmas de consultoría y otras entidades del Estado, se abordaron los problemas generados por la utilización excesiva y sin límites de este tipo de herramientas. Así mismo, los panelistas coincidieron en la necesidad de hacer curaduría y controles.
Bogotá, 18 de marzo de 2026 (@URestitucion). La Unidad de Restitución de Tierras (URT), a través de su Dirección Jurídica, lideró el conversatorio ‘Inteligencia artificial y ética profesional: buenas prácticas y límites en procesos de restitución’, un espacio que reunió a expertos de la sociedad civil y el sector público para analizar los retos en el uso de estas tecnologías.
El diálogo contó con la participación de expertos como Piero Di Gennaro, magistrado auxiliar de la Corte Suprema de Justicia; Luisa Acevedo, CEO de la firma de consultoría Gestión Predial Simple; Catalina Moreno, codirectora de la Fundación Karisma; y Edwin Buenhombre, director de Desarrollo Digital del Departamento Nacional de Planeación (DNP).
Durante la apertura del evento, la directora jurídica de la URT, Paula Villa Vélez, recalcó la importancia de promover buenas prácticas en el uso de la inteligencia artificial y establecer límites éticos claros a la automatización, más cuando se trabaja en la protección de los derechos de las víctimas del conflicto armado. Por tal motivo, dio la bienvenida a este tipo de discusiones en la entidad y en el Estado colombiano.
La moderadora del conversatorio, Luisa Acevedo, empezó por destacar el potencial de la inteligencia artificial para optimizar procesos institucionales, poniendo como ejemplo exitoso los análisis liderados por el Observatorio Jurisprudencial de la URT, que ha puesto a la IA al servicio de las víctimas al brindar una mejor comprensión de fenómenos estructurales como el despojo.
No obstante, advirtió sobre el carácter probabilístico de este tipo de tecnologías: “la IA genera probabilidades, pero no siente, y aquí por eso está la academia y el conocimiento humano más vigente que nunca. Por lo tanto no podemos dejarle ninguna decisión que afecte el mundo del derecho y de las víctimas. Hay que curar la información siempre. La inteligencia artificial es una maravilla, la usamos todo el tiempo, pero le debemos hacer curaduría”.
Desafíos estructurales
Durante el conversatorio, se abordaron aspectos clave como el funcionamiento de los modelos de IA, los riesgos asociados a las llamadas “alucinaciones” y los sesgos causados, así como la responsabilidad profesional en el uso de estas herramientas dentro del ejercicio jurídico.
En ese sentido, el jurista Piero Di Gennaro, magistrado auxiliar de la Corte Suprema de Justicia, se refirió al caso de un recurso de revisión realizado con inteligencia artficial, que fue rechazado por errores graves, lo que llevó a una sanción. Es decir, argumentó la importancia de reconocer esta problemática y solucionarla mediante un enfoque ético aplicado al quehacer jurídico diario. “Tanto la verdad como la responsabilidad son problemas nuestros. La IA no nos va a pedir disculpas por los errores. El filtro es uno, porque es la propia trayectoria profesional la que está en juego”, dijo.
“En el caso de la restitución, estamos hablando de la vida y las propiedades de las personas, por lo que se tiene que verificar lo que se establece en el documento que se emite. La única salida es la ética profesional en el ejercicio de las labores jurídicas. Es esforzarnos el doble en este sentido”, añadió.
Catalina Moreno, codirectora de la Fundación Karisma, señaló la necesidad de abordar los límites del uso de la IA desde una perspectiva integral, que trate el asunto de forma estructural: “no me gusta el régimen de sanciones, pero se debe tener conciencia de que usar la IA no nos evita una responsabilidad. Yo no puedo decir que si lo hizo la IA, puedo levantar las manos. Vemos ese síntoma, pero nunca vamos a la enfermedad que lo está causando: es decir, no estamos abordando el problema estructural”.
La experta agregó que en muchos casos, el uso de la inteligencia artificial no agiliza sino que añade más obstáculos a las labores diarias de funcionarios o servidores públicos, generando posibles rezagos, por lo que se está tornando en una cuestión de índole estructural.
Mecanismos institucionales para establecer límites
Finalmente se discutió el papel del Estado en la incorporación responsable de estas herramientas, subrayando la importancia de garantizar principios como la transparencia, la trazabilidad de la información y la protección de la privacidad, sin afectar la autonomía en la toma de decisiones. Se discutieron varias medidas aplicadas en distintas ramas del poder público, que han permitido empezar a atajar esta cuestión para promover buenas prácticas
En ese sentido, Edwin Buenhombre, director de Desarrollo Digital del DNP, explicó una estrategia que adelanta su entidad para atajar este tema: “el ejercicio es brindar la accesibilidad y habilidades digitales para que no se generen problemas con el uso de la IA. Ella responde a los datos que nosotros le ponemos, y eso genera sesgos. Hay que identificar esos factores y cómo evitarlos. Nosotros en el DNP elaboramos una guía para lograrlo”.
A lo largo de tres momentos de discusión, los panelistas coincidieron en la necesidad de avanzar en la construcción de lineamientos claros que orienten el uso ético de la inteligencia artificial en el sector público, particularmente en procesos misionales como la restitución de tierras.
Con este tipo de espacios, la URT fortalece la gestión institucional en favor de las víctimas del conflicto, al poner en marcha procesos de innovación que priorizan el enfoque humano y de derechos que orienta su labor.
Unidad de Restitución de Tierras
Cra. 13a # 29-24. Edificio Allianz. Bogotá, D.C.
Teléfono: (601) 427 9299. Correo electrónico: atencionalciudadano@urt.gov.co

