Regulación de la IA, bien explicada
En los últimos días, ha vuelto a circular una idea que suena tranquilizadora: que la inteligencia artificial en la justicia ya está siendo “regulada”. Que organismos internacionales -como la UE, UNESCO y otros- han levantado un marco normativo para asegurar que la IA se usará de forma responsable. Y que las alucinaciones y los demás males que hoy nos aquejan pronto desaparecerán, cuando incorporemos estas normas más sofisticadas.
Lo primero es hablar con franqueza: lo que existe es una declaración de principios que parten de puntos comunes y tienen muy poca incidencia en la operación real de estos sistemas. Son una especie de brújula ética. Son útiles, porque visibilizan los puntos en los que hay acuerdos básicos: que siempre debe verificarse la respuesta, que no debería sustituir el criterio del humano, etc. Pero no contemplan sanciones, no definen responsabilidades concretas… no resuelven casos difíciles.
El problema es que regular la inteligencia artificial no es como regular el tránsito o los contratos. No basta con trasladar categorías jurídicas tradicionales. La IA no es un sujeto, pero tampoco es simplemente un software más. Es un sistema opaco en muchos casos, cuya respuesta depende de datos, entrenamiento, contexto y uso que no son visibles para el usuario final. Y aunque pudiera ver todo esto, en buena parte tampoco lo entendería. Por eso hay tantas normas decorativas, que tienen muy poca capacidad de incidir en el funcionamiento real de estos sistemas.
Pero hay otro punto más importante: en Colombia -y Latinoamérica, en general- no se produce IA, solo se la consume. Las aplicaciones de IA más avanzadas de nuestra región utilizan los modelos creados, principalmente, en Estados Unidos. Luego, así se supiera regular, tampoco habría cómo hacerlo en los aspectos que sí importan: datos utilizados en el pre y post-entrenamiento, la configuración específica de la red neuronal ni, en general, cualquiera de las partes del código protegido por secreto empresarial.
La buena noticia es que nada de esto es lo que debe ser regulado por nosotros. Y la mejor noticia es que lo que sí debe estar regulado, ya lo está.
No necesitamos una ley de inteligencia artificial para saber que un abogado no puede firmar un documento que no ha leído; no puede citar normas o sentencias inexistentes; no puede delegar su criterio profesional en un tercero —humano o no— sin verificar y que responde disciplinaria y, en algunos casos, penalmente por su actuación.
Eso no lo trajo la inteligencia artificial. Eso es derecho básico de la profesión. Por eso, cuando aparecen casos de abogados y jueces investigados por presentar escritos con citas inventadas por inteligencia artificial, el problema no es la IA. El problema es el mismo de siempre: alguien no hizo su trabajo.
Cuando alguien firma algo que no hizo ni siquiera revisó, eso es una falta sea que lo haya hecho otra inteligencia humana o una artificial. La IA no se hizo para hacer menos (lo que parecen creer quienes pretenden que les haga su trabajo), sino para hacer más: investigar más, escribir más, pensar más en las cosas más importantes.
En lugar de obsesionarnos con regular la tecnología —algo que, en buena medida, no controlamos— deberíamos reafirmar la aplicación de las reglas que sí controlamos: las del ejercicio profesional.
Esto implica:
• Dejar claro que el uso de IA no reduce el estándar de diligencia, sino que lo eleva,
• Capacitar sobre el uso correcto e incorrecto de herramientas tecnológicas, especialmente, cuando estas influyen en decisiones jurídicas,
• Incorporar formación real en uso responsable de IA en facultades de derecho,
• Y, sobre todo, aplicar sin vacilaciones los regímenes disciplinarios existentes cuando se incumplen deberes básicos.
No se trata, entonces, de prohibir la inteligencia artificial en la justicia. Eso sería tan inútil como prohibir internet. Se trata de enfocar adecuadamente el problema y dedicar nuestros esfuerzos hacia lo que sí debemos regular. La ilusión regulatoria consiste en creer que algún día controlaremos el algoritmo cuando, en realidad, lo que debemos controlar -ahora y siempre- es al operador.
Declaración de transparencia: Además de mi trabajo académico y de litigio, tengo una participación económica en la herramienta de tecnología legal “Ariel”.