En distintas partes del mundo la inteligencia artificial ya opera en los sistemas de justicia. No como promesa futura, sino como realidad presente. En Estados Unidos la IA evalúa el riesgo de reincidencia de personas imputadas, en Brasil asiste en la elaboración de borradores e investigación jurídica, en Argentina apoya a fiscales con dictámenes judiciales y en Francia incluso se propuso que predijera el cálculo de indemnizaciones por daños personales.
La inteligencia artificial ya orienta a quienes no tienen abogado, reduce la carga que colapsa a los juzgados y contribuye en la consistencia de las resoluciones. Parece una herramienta formidable para democratizar el acceso a la justicia. Y quizá lo sea. Pero esa misma potencia la convierte en un instrumento de dominación si se implementa sin rigor ético y sin vigilancia constitucional.
El riesgo no está en la tecnología. Está en la tentación de tratarla como si fuera neutral.
Kate Crawford, en su obra Atlas de IA, lo documenta con precisión: los sistemas de inteligencia artificial no son técnicas objetivas que deciden sin dirección humana. Están integrados en contextos sociales, políticos, culturales y económicos. Están diseñados, entrenados y desplegados por personas, instituciones e imperativos que determinan qué hacen y cómo lo hacen. Cuando se aplican en contextos tan sensibles como el sistema judicial, pueden reproducir, optimizar y amplificar las desigualdades estructurales existentes. No por accidente, sino porque los datos con los que se entrenan heredan los prejuicios históricos de quienes los generaron.
Uno de los casos más estudiados es ilustrativo: Compas, un algoritmo utilizado en Estados Unidos para calcular el riesgo de reincidencia de personas imputadas, mostró sesgos sistemáticos en perjuicio de personas afroamericanas. El modelo no discriminaba intencionalmente. Más bien, aprendió de datos históricos producidos en un sistema que ya discriminaba. Ese es el problema de fondo: los algoritmos de aprendizaje automático no razonan. Identifican patrones estadísticos en los datos con los que fueron entrenados. Si esos datos reflejan desigualdades estructurales, el modelo las perpetúa con la apariencia de objetividad matemática.
Esto no significa que la IA deba estar prohibida en los tribunales o en las fiscalías. Ese sería el otro extremo del falso dilema. La inteligencia artificial podría orientar a quien no tiene acceso a asesoría jurídica, reducir tiempos procesales, mejorar la consistencia en decisiones rutinarias y acercar a la ciudadanía a instituciones que históricamente le han resultado opacas y distantes. En México, donde el rezago judicial y las barreras de acceso a la justicia han sido estructurales, desaprovechar ese potencial sería equivocado.
La pregunta relevante no es si usar la IA, sino con qué parámetros y a favor de quién. Y ahí es donde el constitucionalismo tiene mucho que decir.
El constitucionalismo concentra siglos de pensamiento político orientado a responder una pregunta fundamental: ¿cuáles son los principios que deben gobernar las decisiones colectivas para garantizar el bien común? Valores como libertad, igualdad, dignidad humana, no discriminación, debido proceso y justicia social son resultado de décadas de reflexión profunda y de lucha social. Estos principios deberían orientar el diseño, la implementación y la gobernanza de cualquier sistema de IA que opere en el ámbito de la justicia.
La inteligencia artificial no puede reemplazar el juicio de una persona juzgadora. Impartir justicia es un proceso que integra experiencia, contexto, empatía y responsabilidad. Implica razonar sobre hechos inciertos, ponderar valores en tensión y asumir las consecuencias de la decisión. Un modelo de aprendizaje profundo no consigue hacer esto. Identifica patrones estadísticos y produce resultados. La diferencia no es menor: una jueza o un juez responde por sus errores. Un algoritmo, no.
Por ello, antes de decidir cómo usamos la IA en la justicia, necesitamos entender exactamente qué estamos decidiendo. Los sistemas de aprendizaje automático pueden ser aliados poderosos para democratizar el acceso a la justicia, pero solo si se diseñan e implementan bajo parámetros constitucionales claros, con supervisión humana efectiva y con rendición de cuentas real. Solo así podemos empezar a construir una justicia que aproveche plenamente la tecnología para alcanzar sus fines.