Rojo y negro: IA, derecho y el gesto de juzgar

S. Garzón (2026)

Stendhal hablaba de lo rojo y lo negro como los polos de una época: el uniforme militar y la sotana, la pasión y la ambición, el fuego y la ceniza. En el derecho contemporáneo, esos colores han mudado de significado. Lo rojo es ahora la sangre, lo humano, el latido del jurista que escribe, que duda, que se equivoca y corrige. Lo negro es el metal, el acero de la máquina, el resplandor frío de la pantalla, el algoritmo que sugiere, que redacta, que alucina. Y en el centro, una vez más, como siempre, la incertidumbre de la vida, el vértigo de la noche.

Recientemente algo causó furor en el “mundo legal”: La Sala Penal de la Corte Suprema de Justicia acaba de trazar una línea divisoria con el auto AP760-2026. Un recurso de casación fue inadmitido porque, a juicio del Despacho, el escrito fue producto de inteligencia artificial. Para llegar a esa conclusión, la Sala se apoyó en dos herramientas de detección —Winston AI[1] y Copyleaks[2]— que determinaron que solo un 7% del texto había sido redactado por el abogado. El resto, dice la providencia, eran recomendaciones o sugerencias generales ofrecidas por la máquina, transcritas sin que el profesional las tradujera en verdaderos cargos de casación. El resultado es correcto: un recurso inepto debe ser inadmitido. Pero el camino para llegar a esa conclusión encierra varias preguntas que este artículo pretende formular con la serenidad que exige la materia.

Preocupa, en primer lugar, la confianza depositada en los detectores de inteligencia artificial. La Corte acepta su veredicto porque dichas herramientas reportan tener un 99.98% de precisión. Sin embargo, como ha señalado la literatura especializada —el metaanálisis de Weber-Wulff y su equipo (2023)[3], por ejemplo[4]—, estos clasificadores no son ni precisos ni confiables. Se trata de modelos probabilísticos, sensibles al estilo, la homogeneidad del texto, la longitud y las fórmulas repetitivas. En la prosa jurídica, caracterizada por su formalismo y estandarización, serias como han de ser y usualmente grises e indistinguibles las unas de las otras, el riesgo de falsos positivos es particularmente alto. Además, la Corte no ofrece información sobre la versión del modelo empleado, los parámetros de configuración, los umbrales de decisión, la tasa de error esperada o las condiciones específicas del análisis. Sin esos datos, la verificación no es reproducible ni controlable por la vía del contradictorio. Una cifra como «100% IA» se convierte así en un oráculo sin posibilidad de apelación. El rey está desnudo, y la desnudez no se discute.

Más grave aún es la mezcla de dos discusiones que deberían permanecer separadas. Una cosa es que un escrito sea técnicamente inepto —y eso basta para inadmitirlo— y otra, muy distinta, es afirmar que no fue confeccionado por un profesional del derecho. La primera es una cuestión de calidad argumental; la segunda introduce un reproche simbólico sobre la autoría, sobre la legitimidad misma de quien presenta el recurso. Ese apartado simbólico es central cuando hablamos de inteligencia artificial. Al asociar su uso con la falta de diligencia profesional, la Corte construye un imaginario en el que la herramienta se convierte en sospechosa por definición. No se juzga el resultado, sino el medio. No se evalúa la argumentación, sino el origen. Y con ello se abre una puerta peligrosa: la de estigmatizar al abogado que decide apoyarse en la tecnología para mejorar su trabajo.

La Sentencia T-323 de 2024, ésta de la Corte Constitucional, había trazado un camino más equilibrado al reconocer que la inteligencia artificial puede utilizarse con fines de gestión y apoyo judicial, siempre bajo supervisión humana y con cargas de transparencia y responsabilidad. Lo que no puede hacer el sistema es aplicar una vara distinta para jueces y litigantes. Si los primeros pueden consultar a la máquina para formular interrogantes, los segundos no pueden ser reprochados por hacer lo mismo. La coherencia institucional exige simetría. La decisión de la Sala Penal, aunque correcta en su resultado concreto, es metodológicamente frágil y simbólicamente problemática. No cumple con estándares mínimos de transparencia, verificabilidad y posibilidad de contradicción. La verificación tecnológica, cuando sustenta una inferencia relevante en la motivación judicial, debe estar sujeta a esos estándares. No puede ser una caja negra.

Nada de lo anterior implica ignorar los riesgos de la inteligencia artificial en el derecho. Las alucinaciones algorítmicas existen. Hay estudios recientes —el de Apollo Research y OpenAI[5], por ejemplo— que muestran cómo ciertos modelos pueden sesgar información, inventar precedentes o simular comportamientos para alcanzar metas ocultas. El caso de Sincelejo, donde una sentencia se apoyó en jurisprudencia fantasma generada por ChatGPT[6], es una advertencia que no podemos desoír. Pero el problema no es la herramienta; es la renuncia a verificar. La máquina alucina, pero el humano debe despertar. La máquina falla, como todos, pero el humano, como decisor último, debe hacerse responsable por sus fallos. La responsabilidad no es del martillo. Por eso, el camino no es prohibir ni estigmatizar, sino regular. Establecer estándares claros de responsabilidad, transparencia y debido proceso en el uso de estas tecnologías. Exigir que quien las utilice asuma el control del producto final y responda por él. Y, sobre todo, recordar que la decisión última —esa que define derechos, que inclina la balanza, que traza la línea exploradora entre la incertidumbre de la noche— es siempre humana.

Hay una última reflexión que este caso convoca. Durante siglos, el trabajo jurídico se ha concebido como una labor artesanal: el jurista que talla el argumento, que pule la cita, que conoce el grano de la madera y sabe dónde incidir para que la pieza no se quiebre. Ese artesano se distingue del carpintero —el que aserra, el que clava, el que repite gestos sin preguntarse por la forma final— no por la herramienta que usa, ambos recurren al martillo –que, aunque más metálico y lleno de chips, sigue siendo martillo- sino por el criterio con que la emplea. El carpintero hace fuerza; el artesano, forma. Lo que hoy llamamos inteligencia artificial no es más que una nueva herramienta en ese taller milenario. Antes era la pluma de ave, luego la máquina de escribir, después el procesador de texto. Siempre hubo quien confundió el medio con el fin, quien creyó que la herramienta sustituía al oficio. Pero la madera sigue siendo madera, y el corte, si no sabe a dónde va, termina en astillas.

El problema no es que el abogado use la máquina; es que delegue en ella la decisión sobre el corte. La herramienta acelera, pero no piensa –aunque lo tecno entusiastas sueñen lo contrario- ni debe decidir –especialmente en estos casos, no está legitimado para hacerlo-. Sugiere, pero, como todo aquel que no pueda hacerse moralmente responsable de sus decisiones, no puede elegir. Como el artesano que conoce sus gubias, el buen jurista sabe que la máquina es un auxiliar, no un sustituto. El valor no está en la tiza ni en el esfuerzo visible, sino en saber exactamente dónde marcar.

Antes estábamos parados en hombros de gigantes —los que escribieron los tratados, los que forjaron la jurisprudencia, los que dejaron su huella en esa historia universal de la infamia que llamamos pasado—. Esos gigantes se consolidaban, en gran parte, en la escuela de maestros mudos: la biblioteca. Allí estaban los libros, callados, esperando que alguien los abriera, los interrogara, los pusiera a dialogar con el caso concreto. Ahora la biblioteca sigue estando, pero ya no tiene paredes. Es más grande, más extensa, inabarcable. Podemos buscar en ella con una velocidad que antes habría parecido hechicería, pero también es más fácil perderse en su inmensidad, confundir el ruido con la señal, creer que encontrar es lo mismo que comprender. La paradoja de nuestro tiempo es que tenemos acceso a todos los libros del mundo y, sin embargo, nunca habíamos estado tan cerca de no saber leer.

Si la inteligencia artificial puede acortar el camino sin perder el rumbo, si puede liberar al jurista de las tareas mecánicas para permitirle concentrarse en lo esencial —el criterio, la argumentación, la justicia del caso concreto—, ¿por qué no hacerlo? La discusión no debe centrarse en las herramientas utilizadas, sino en el criterio del jurista al usarlas. El derecho no se mide por las horas invertidas ni por la dificultad del proceso, sino por la calidad de lo que se produce.

Ahora tenemos la oportunidad de seguir en hombros de aquellos gigantes, solo que donde antes estuvo el calor humano, encontramos el frío del acero. Pero ese acero, en últimas, conserva el calor de sus creadores. Como Mary Shelley sabía, no es el monstruo lo que aterra, sino la responsabilidad de quien le dio vida. Estamos en plena curva de aprendizaje. Se cometerán errores, muchos. La decisión de la Corte es uno de ellos: correcta en el resultado, frágil en la motivación, desproporcionada en el reproche simbólico. Pero el sistema está empezando a fijar criterios y a ensayar mecanismos de control. En nosotros está que sus líneas directrices sean las correctas, y no unas prejuiciosas o temerosas del gigante.

La inteligencia artificial no es un enemigo ni un salvador, es una herramienta. Y como toda herramienta, puede usarse bien o mal. Lo que no podemos hacer es negarnos a usarla por miedo, ni condenar a quien la usa sin examinar el resultado. El derecho, como la vida, navega en lo gris. Pero en ese gris hallamos el rojo de la sangre que late en el jurista y la negrura metálica del acero que lo asiste. La noche es larga, pero el oficio es el mismo: mirar lejos, decidir con criterio, responder por lo que se hace.

No nos neguemos a robar el fuego. Usarlo con sabiduría es, quizás, la única forma de cruzar la noche.


[3] WEBER-WULFF, D.; ANOHINA-NAUMECA, A.; BJELObaba, S.; FOLTÝNEK, T.; GUERRERO-DIB, J.; POPOOLA, O.; ŠIGUT, P.; WADDINGTON, L. Testing of detection tools for AI-generated text. International Journal for Educational Integrity [online]. 2023, vol. 19, no. 26, pp. 1-39, ISSN: 1833-2595 [viewed 05 February 2026]. https://doi.org/10.1007/s40979-023-00146-z. Available from: https://link.springer.com/article/10.1007/s40979-023-00146-z

[4] Otra estudio rescatable es el Liang et al. (2023) en el que se demostró que los detectores de IA presentan un sesgo sistemático contra los escritos no nativos de inglés, con una tasa promedio de falsos positivos del 61,3%. (LIANG, W., et al. GPT detectors are biased against non-native English writers. Patterns [online]. 2023, vol. 4, no. 7, art. 100779, ISSN: 2666-3899 [viewed 05 February 2026]. https://doi.org/10.1016/j.patter.2023.100779

[5] Stress Testing Deliberative Alignment for Anti-Scheming Training, disponible en: https://www.apolloresearch.ai/research/stress-testing-deliberative-alignment-for-anti-scheming-training/

[6] Caso analizado por la Corte Suprema de Justifica en la STC17832-2025 mediante la cual se anuló la providencia judicial proferida por la Sala Civil Familia-Laboral del Tribunal Superior de Sincelejo..