El impacto de la inteligencia artificial en el Derecho Penal
El uso de la inteligencia artificial (IA) se ha convertido en uno de los debates más inquietantes para el Derecho Penal contemporáneo. Lo que antes parecía un asunto de ciencia ficción —máquinas tomando decisiones con autonomía relativa— hoy es una realidad que permea tanto la investigación criminal como la administración de justicia. Algoritmos que rastrean patrones de fraude, programas que analizan huellas o rostros en segundos, softwares que predicen riesgos de reincidencia: todos ellos ya hacen parte de la caja de herramientas de los funcionarios. Sin embargo, esta incorporación tecnológica trae consigo dilemas que el Derecho Penal, con su tradición humanista y antropocéntrica, todavía no logra resolver.
Uno de los principales retos es el de la toma de decisiones judiciales. El proceso penal se sostiene sobre la presunción de inocencia, el debido proceso y la valoración crítica de la prueba. Delegar parte de estas funciones a un sistema algorítmico plantea una tensión ineludible: ¿hasta qué punto puede un juez basarse en un “score de riesgo” sin vaciar de contenido su deber de motivar la sentencia? El peligro es que la decisión deje de ser producto de un razonamiento humano y se transforme en la mera validación de lo que dicta una máquina.
En este sentido, la Corte Constitucional colombiana ha advertido que la inteligencia artificial no puede sustituir el razonamiento lógico del juez, pues ello vulneraría garantías esenciales como el juez natural y el debido proceso, por lo que se determinó que la IA puede servir como apoyo en la gestión documental o administrativa, pero no puede asumir la interpretación de hechos ni la valoración de pruebas. La justicia no puede convertirse en una caja negra inaccesible, donde la motivación del fallo se reduzca a la opacidad de un algoritmo.
A ello se suma la cuestión del uso responsable de los datos. Los algoritmos se alimentan de información histórica, y en esa memoria digital se alojan sesgos de género, clase, raza y orientación sexual. Si el sistema aprende de un modelo que ha criminalizado con mayor intensidad a las poblaciones vulnerables, el resultado será la reproducción —e incluso la profundización— de esas desigualdades. En un contexto como el latinoamericano, donde el sistema penal ya recae de manera selectiva sobre jóvenes de barrios populares, comunidades racializadas o mujeres trans, el uso acrítico de estas herramientas puede terminar reforzando estigmas y normalizando la exclusión.
No menos importante es el reto de la transparencia. Muchos de los sistemas que ya se utilizan en el mundo judicial son cajas negras cuyos cálculos son inaccesibles para las partes procesales y, a veces, incluso para el propio operador jurídico. Esta falta de claridad impide ejercer control efectivo y limita el derecho de contradicción probatoria. Una justicia opaca, gobernada por algoritmos incomprensibles, pone en riesgo la legitimidad misma del proceso penal. En este punto, tanto la Corte Constitucional como el Consejo Superior de la Judicatura han insistido en que cualquier uso de IA debe ser informado a las partes, sometido a estricta verificación y enmarcado dentro de principios de transparencia, ética y respeto por los derechos fundamentales.
En la práctica judicial ya hemos visto casos que marcan esta tensión. En 2023, un juez empleó ChatGPT como apoyo en una tutela sobre acceso a servicios de salud. Aunque el razonamiento principal provino de su propia labor, la Corte Constitucional advirtió que el uso de IA debía informarse con claridad en el expediente y estar sujeto a control, precisamente para evitar que se generara la percepción de que la máquina sustituía al juez. De igual forma, iniciativas como el sistema “Pretoria” de la Corte Constitucional, diseñado para preseleccionar tutelas, han demostrado que la IA puede ser útil para gestionar cargas procesales, siempre y cuando la última palabra sea humana.
Todo esto conduce a un dilema mayor: mantener el control humano en el corazón de la justicia penal. La IA puede ser una aliada en la agilización de procesos, en la detección de patrones o en el fortalecimiento de la investigación criminal, pero nunca puede reemplazar la deliberación ética, el juicio ponderado ni la motivación propia de la función jurisdiccional. Si se desplaza la centralidad del juez a favor de la máquina, lo que se erosiona no es solo un principio procesal, sino la idea misma de justicia como construcción social.
El Derecho Penal del siglo XXI, entonces, se enfrenta a la necesidad de integrar la innovación tecnológica sin hipotecar de su esencia garantista. La inteligencia artificial no es neutra ni inocua: es una herramienta poderosa que, mal utilizada, puede convertirse en un mecanismo de discriminación, automatización de la exclusión y debilitamiento del debido proceso. La Corte Constitucional ha dado un primer paso al fijar pautas sobre su uso, y el Consejo Superior de la Judicatura ha avanzado en lineamientos éticos. Pero se requiere una regulación más amplia, que establezca estándares de transparencia, protocolos de supervisión y responsabilidad clara frente a los errores algorítmicos.
El reto no es frenar el avance tecnológico, sino domesticarlo para que sirva a la justicia y no a su contrario, ya que de ser así, corremos el riesgo de diseñar un Derecho Penal más veloz y tecnificado, pero profundamente injusto en su fondo: un Derecho en el que las personas, lejos de ser el centro del proceso, pasen a convertirse en simples variables de un algoritmo.