El fallo hecho con IA que citó frases que no existen
La Corte Suprema anuló dicha sentencia y advirtió que ningún juez puede sustentar sus fallos en argumentos falsos o no verificados, pues vulnera el debido proceso.
Comunicadora social y periodista de la Universidad del Quindío, con más de 13 años de experiencia en cubrimientos judiciales y de orden público. Trabajó en Colmundo Radio, Colprensa y Caracol Radio Bogotá, cubriendo la Procuraduría, Altas Cortes, juzgados y la Defensoría, entre otros temas. También trabajó en Caracol Radio Medellín y como coordinadora de comunicaciones en la Alcaldía de Medellín (2021-2023). Actualmente hace parte del equipo de periodistas en la sección de actualidad de El Colombiano.
Cuando la inteligencia artificial parece haberse metido en todas partes, desde escribir textos hasta ayudar a interpretar leyes, la Corte Suprema de Justicia advirtió que en los estrados no se pueden tomar decisiones sin verificar a fondo la información, y mucho menos apoyarse en citas que no existen en los fallos reales.
En un reciente fallo, la corporación anuló una decisión del Tribunal Superior de Sincelejo por haberse sustentado en citas jurisprudenciales que, al ser verificadas, resultaron inexistentes.
Le puede interesar: ¿Qué tal? Corte Suprema anuló el primer fallo por frases inventadas tras uso indebido de IA.
El pronunciamiento no solo dejó sin piso una providencia, sino que marcó un límite, advirtiendo que ni los jueces ni la inteligencia artificial pueden inventar precedentes. La Corte subrayó que en la motivación judicial no hay espacio para la improvisación ni para los textos fabricados por herramientas tecnológicas sin verificación.
El caso tuvo origen en Sincelejo, donde una ciudadana interpuso una acción de tutela contra el Tribunal Superior de esa ciudad. El motivo parecía técnico, pero pronto reveló un problema de fondo. El Tribunal había revocado una sentencia citando dos supuestas decisiones de la propia Corte Suprema (STC13560-2023 y STC4734-2025). Al revisarlas, la demandante descubrió que esas sentencias no decían lo que el Tribunal afirmaba. Y tenía razón.
Cuando la Corte Suprema verificó las citas, comprobó que los párrafos transcritos no existían. Eran frases inventadas, atribuidas falsamente a fallos reales. En otras palabras, el Tribunal había sustentado su decisión sobre una base inexistente, una especie de jurisprudencia fantasma.
Esa falsedad se convirtió en el eje del fallo de segunda instancia, con el que el Tribunal declaró terminado un proceso judicial alegando desistimiento tácito, y afectó directamente el derecho al debido proceso de la demandante.
La Sala de Casación Civil, con ponencia de la magistrada Adriana Consuelo López, consideró el hecho una violación grave al debido proceso. En su análisis, lo calificó como un “defecto de motivación” y una “vía de hecho”. Para la Corte, no se trataba de un simple error, sino de una construcción judicial fundada en afirmaciones sin veracidad.
“El funcionario judicial, entre varias tareas, debe prestar especial atención en utilizar los fundamentos normativos y jurisprudenciales adecuados y verificar su autenticidad y contenido. Sobre el particular, la Corte Constitucional se ha referido a la «alta diligencia de verificación y fiabilidad de la información consultada por el juez y su personal de apoyo» en la actividad que realizan al momento de motivar las providencias”, dice la decisión.
El fallo insiste en que la labor del juez exige la más alta diligencia. El uso de sistemas automáticos o fuentes no verificadas puede derivar en errores que vulneren derechos fundamentales, especialmente el debido proceso
La corporación aprovechó el pronunciamiento para dejar sentadas reglas claras sobre el uso de inteligencia artificial y fuentes jurisprudenciales en la Rama Judicial. El alto tribunal recordó que los jueces están obligados a verificar la autenticidad y el contenido de toda cita jurídica antes de incorporarla a una providencia.
Al citar la sentencia T-323 de 2024, la Corte precisó que “no es admisible incluir en providencias textos generados por IA sin verificación. El juez que así proceda incumple su deber de motivar la decisión”.
La decisión desató un debate sobre el uso indebido de la IA. José Betancur, director del Nodo EAFIT, advirtió que el problema no es la herramienta, sino la forma en que se emplea y la responsabilidad que asumen —o evaden— quienes la utilizan.
“La IA, por eficiente que sea, sigue siendo un mal software pero una muy buena persona, es decir, una herramienta capaz de acelerar procesos, pero también de cometer errores, tergiversar información o producir alucinaciones. Y en todos los casos, desde una sentencia judicial hasta un simple correo, la responsabilidad final siempre recae en el humano que firma, revisa y valida”, explicó. El problema, dice, surge cuando se usa “a ojo cerrado”, como si su condición tecnológica la hiciera infalible. Es en esa confusión, en esa delegación total es donde empieza a configurarse el riesgo. “El punto en que su uso podría derivar no solo en fallas graves, sino en eventuales responsabilidades legales”.
El caso concreto
El alto tribunal ordenó al Consejo Superior de la Judicatura y a la Escuela Judicial Rodrigo Lara Bonilla difundir esta decisión en todo el país, para prevenir que vuelva a repetirse un episodio similar. Se trata de la primera tutela que anula una providencia por citas inexistentes y, al mismo tiempo, conecta explícitamente ese error con los riesgos del uso irresponsable de la inteligencia artificial.
“La justicia debe ser seria, eficiente y eficaz... El juez no puede abandonar su papel de garante de la verdad jurídica”, recuerda la sentencia STC17832-2025.
Todo comenzó con una disputa entre dos mujeres en Sincelejo: Irma, quien buscaba cobrar una deuda, y Dina, la deudora. El pleito parecía sencillo, pero terminó convirtiéndose en un caso histórico.
El proceso llevaba dos años sin movimiento. Según la ley, si un caso permanece inactivo ese tiempo, puede darse por terminado automáticamente. El 11 de julio de 2024, ambas partes actuaron con diferencia de horas: a las 9:37 de la mañana, Irma pidió un embargo para demostrar que el proceso seguía vivo; a las 3:08 de la tarde, Dina pidió al juez que lo cerrara por abandono.
El juzgado le dio la razón a Irma y mantuvo el proceso abierto, pero el Tribunal Superior de Sincelejo revocó esa decisión. A juicio del Tribunal, las actuaciones de ambas eran extemporáneas y el caso debía darse por terminado. Para sustentar su decisión, el Tribunal citó una supuesta frase de una sentencia de la Corte Suprema de Justicia que, según ellos, respaldaba su posición.
Cuando el caso llegó a la Corte, el alto tribunal revisó sus archivos y descubrió que la cita que el Tribunal de Sincelejo había usado no existía. El texto atribuido a la Corte era completamente falso y no coincidía con ninguno de sus fallos y anuló la decisión.
Discusión sobre la IA en la justicia
Para José Betancur, director del Nodo EAFIT, el debate no debería centrarse en expulsar la inteligencia artificial de la justicia, sino en cómo integrarla con rigor. Según él, la tecnología no es el problema, pero la falta de verificación sí.
Betancur sostiene que la solución no pasa por prohibir la IA en la elaboración de sentencias, sino por diseñar procesos responsables, donde distintos sistemas actúen como un “equipo” capaz de construir, revisar y detectar errores. Solo así —dice— se reducen las alucinaciones y se garantiza que la herramienta funcione como apoyo, no como sustituto del criterio humano.
Para más noticias sobre política, paz, salud, judicial y actualidad, visite la sección Colombia de EL COLOMBIANO.