Share:

¿Sentencias hechas con IA?

Cada cierto tiempo, alguna noticia sacude la opinión pública: descubren citas inventadas en alguna sentencia, un abogado presenta jurisprudencia inexistente, etc… Los ejemplos abundan no solo en Colombia, sino en todo el mundo y sirven de constante recordatorio de un mensaje importante: cualquier IA es susceptible de error y, si se usa sin supervisión, compromete la legitimidad de la justicia.

El problema no es la inteligencia artificial en sí misma, sino usarla como si fuera infalible. La mayoría de los modelos generativos están entrenados para predecir textos plausibles, lo que no es igual a que sean verdaderos. Incluso, los modelos menos cuidadosos actúan como el estudiante que, en un examen oral, prefiere inventar algo convincente antes que confesar que no sabe la respuesta. Por ello, cuando un abogado o un juez decide integrar estas herramientas en su práctica, debe hacerlo como el profesor que califica a dicho estudiante: contrastando la información y exigiendo conocer cada fuente.

Para promover las posibilidades reales de supervisión humana, en los últimos años se ha venido hablando, incrementalmente, del principio de “explicabilidad” de la IA. En términos simples, es la exigencia de que el modelo pueda “explicar” cómo llegó a su respuesta en términos comprensibles para cualquier humano. Se parece mucho a cuando el profesor de matemáticas demandaba de nosotros no solo la respuesta, sino mostrar el proceso que nos llevó a ella. 

Grosso modo, una IA es explicable cuando permite consultar las fuentes que tomó como base de su respuesta, reconstruir el proceso argumentativo que siguió y conocer cuáles fueron los términos empleados en las búsquedas que realizó, así como sus resultados. Aunque siempre se puede alegar que hay una parte “oculta” para el ciudadano común que no entiende de algoritmos y redes neuronales, eso a mi juicio no importa demasiado. Creer que se debe ser un experto en programación para entender cómo razonó la IA en su respuesta es como creer que se debe comprender el proceso de sinapsis de un juez para entender cómo piensa. 

Bien entendida, la exigencia de “explicabilidad” de la IA resulta, a mi juicio, muy natural. En el derecho, una de nuestras grandes conquistas históricas ha sido la necesidad de motivación de las sentencias, que comprende revelar las fuentes y mostrar el hilo de cada razonamiento. Hoy esa “motivación” se la pedimos, de hecho, no solo a los jueces sino a las partes y a todos los que intervengan en el proceso (prueba de ello es que, a falta de sustentación, cualquier acto o recurso es susceptible de ser inadmitido, rechazado, declarado desierto, etc…). ¿Cómo no vamos a exigir lo mismo para adoptar cualquier herramienta legal? Pretender abandonar esta lógica so pretexto del “avance tecnológico” o de los “nuevos tiempos” es un peligroso error que podría llevarnos a perder buena parte del derecho que nos costó mucho ganar.

Entonces, ¿las alucinaciones en los escritos legales son un problema tecnológico? Solo en parte. Las auténticas soluciones a esto no van a venir de Silicon Valley, sino de los principios que han orientado a nuestra profesión durante siglos. Son las mismas buenas prácticas que nos han permitido superar, en cada generación, los peligros que acompañan a cada gran avance. Así como hace un siglo se enseñó a los abogados a buscar jurisprudencia en los repertorios y luego en bases de datos, hoy debemos enseñarles a sacar el máximo provecho de los modelos de lenguaje natural sin renunciar a la esencia del oficio.  

Me parece que si algo debe preocuparnos no es que la IA “se equivoque”, sino que nuestra profesión no se prepare para convivir con ella. El mayor peligro para el derecho colombiano es que, por miedo o desconocimiento, dejemos de capacitar a estudiantes, litigantes y jueces en el uso responsable de estas herramientas. En lugar de prohibir, debemos educar: enseñar cómo pedir a la IA revelar sus fuentes, a contrastar sus respuestas, a no depositar en ningún modelo la decisión final. En últimas, formar en cómo distinguir una buena de una mala herramienta y, ante todo, recordar constantemente que todas -sin excepción- son apenas eso: una herramienta. Y que la máquina, por inteligente que sea, no se viste de toga.

Declaración de transparencia: Además de mi trabajo académico y de litigio, tengo una participación económica en la herramienta de tecnología legal “Ariel”.