Yaritza Pérez-Pacheco, UNIR – Universidad Internacional de La Rioja
La inteligencia artificial (IA) está cambiando muchos sectores, incluido el judicial. ¿Puede la IA tomar mejores decisiones y en menor tiempo que un humano sin sacrificar la justicia y la imparcialidad? ¿Cómo interviene en aspectos tan sensibles como la violencia de género?
El juez robot, para muchos juristas, es solo ciencia ficción, ya que que las capacidades de la IA no podrán reemplazar la comprensión y empatía de “un ser humano que se desempeña como abogado”. Al elemento humano le corresponderá resolver las encrucijadas que plantean los errores y sesgos inherentes al procesamiento de grandes volúmenes de datos, así como evaluar, decidir y superar retos tan complejos como la brecha digital.
A pesar de estas preocupaciones, los desarrollos basados en IA tienen el potencial de transformar positivamente la justicia. La IA puede reducir considerablemente los tiempos de respuesta y facilitar el acceso a la justicia para todas las personas, especialmente para las que se encuentran en situaciones de vulnerabilidad. Estas tienen derecho a una justicia pronta y expedita, como se establece en muchas constituciones del mundo.
Las herramientas basadas en IA también pueden ayudar a los jueces a tomar mejores decisiones por medio de análisis predictivos y comparativos. Para que este tipo de análisis sean posibles se requiere de una gran cantidad de datos.
Pero los datos extraídos de casos decididos en el pasado deben ser de calidad para aportar mayor consistencia al algoritmo y a las sentencias que se emitan con ayuda de la IA. Estos datos deben facilitar la identificación de patrones en la administración de justicia, pero también de errores, sesgos y alucinaciones.
Un caso de éxito para violencia de género: AymurAI
Un ejemplo en positivo es AymurAI, un software basado en IA que se encarga de analizar casos de violencia de género, leyendo y comprendiendo documentos judiciales para recopilar información importante.
Imagine que tiene miles de libros frente a usted y está buscando patrones específicos o piezas de información en ellos. Hacerlo manualmente le llevaría años, pero AymurAI puede hacerlo en minutos.
Este software toma todas las sentencias judiciales relacionadas con violencia de género, las lee cuidadosamente y extrae datos útiles sobre cómo se manejan estos casos, qué decisiones se toman y cómo se protege a las víctimas.
Luego, organiza toda esta información de manera que sea fácil de entender y acceder para investigadores, abogados y otros profesionales interesados en mejorar las leyes y políticas para proteger mejor a las víctimas de violencia de género.
Lo innovador de AymurAI es que, mientras procesa esta información, se asegura de mantener el anonimato de las personas involucradas, protegiendo su privacidad. Esto es especialmente importante porque se trata de casos sensibles que afectan a las vidas de las personas de manera significativa.
Al hacer que esta información sea más accesible y fácil de entender, AymurAI ayuda a la sociedad a:
- Facilitar la investigación sobre violencia de género, permitiendo a los expertos analizar tendencias, identificar problemas en el sistema judicial y proponer soluciones más efectivas.
- Formular políticas públicas más informadas y eficientes que protejan mejor a las víctimas de violencia de género.
- Contribuir a la educación y concienciación sobre la violencia de género, proporcionando datos y análisis que pueden ser utilizados en programas educativos y campañas de sensibilización.
Equidad y eficiencia
La IA puede aprender, razonar, argumentar y resolver problemas. También genera ideas desde un entendimiento contextual, ético y objetivo de todo lo que nos rodea.
En la actualidad, esta tecnología procesa rápidamente enormes volúmenes de información con una precisión inimaginable para el ser humano hasta hace poco. Esto se traduce en la posibilidad real de aliviar significativamente las cargas de trabajo en los tribunales.
Con ayuda de la IA, el personal judicial puede concentrarse en resolver los aspectos clave de cada caso, mientras las tareas rutinarias se realizan de manera automática.
La tecnología es una gran aliada en tareas como la organización de documentos, resúmenes de antecedentes, descripción del trámite procesal y la búsqueda de jurisprudencia relevante.
Imagínense a María, una pequeña empresaria que ha demandado ante los tribunales de justicia de su país la reparación de los daños y perjuicios ocasionados por el incumplimiento de contrato de uno de sus proveedores. Tradicionalmente, esperaría meses o incluso años por una resolución. Mediante la IA, su caso podría ser previamente evaluado y analizado rápidamente, con la posibilidad de resolverse en semanas.
Dilemas éticos de la justicia asistida por IA
La digitalización de la justicia avanzaba lentamente hasta 2019. Pero la pandemia aceleró todo. Desde entonces, los tribunales se apoyaron de la digitalización para garantizar el acceso a la justicia.
Frente a la promesa de transformar la administración y gestión de la justicia, ofreciendo soluciones más rápidas y accesibles, han surgido una serie de interrogantes éticos y legales. ¿Es aceptable que una máquina, alimentada por datos y algoritmos, tome decisiones que actualmente están a cargo de personas de carne y hueso?
Existe fundado temor a que los juzgadores dependan demasiado de la IA. Por ejemplo, si un algoritmo decide sobre la libertad de Carlos, acusado de un delito menor, ¿podemos confiar plenamente en su imparcialidad?
En situaciones como estas se requieren evaluadores críticos y rigurosos ante las respuestas de los algoritmos, para garantizar imparcialidad e integridad en la justicia.
Los sesgos presentes en los datos de entrenamiento de la IA pueden llevar a decisiones automatizadas que reproduzcan discriminaciones preexistentes. Pensemos en la situación de Sofía, una joven madre desempleada con un registro crediticio negativo en el sistema bancario, quien enfrenta un juicio por custodia de su menor hija de seis años. Un algoritmo podría influir negativamente en la decisión basándose en datos sesgados.
La brecha digital también es un problema. Aunque muchos usan internet, no todos tienen el mismo acceso.
Aun cuando más de 5 000 millones de personas están conectadas digitalmente, Naciones Unidas advierte sobre las crecientes brechas en el aprendizaje digital, en datos e innovación entre diversas regiones y grupos sociales.
Estos son solo algunos de los dilemas éticos presentes en esta materia, que deben ser considerados en el proceso de transformación digital de la justicia.
Preparándonos para el futuro digital
La capacitación digital forma parte de la agenda internacional. El Informe del Grupo de Trabajo sobre creación de capacidades de IA de la UNESCO destaca la importancia de formar a funcionarios públicos en competencias digitales en el contexto de la IA. Esto incluye a quienes trabajan en el sector judicial.
Se trata de fomentar una cultura de innovación y adaptabilidad entre los profesionales del derecho y funcionarios públicos, tanto en aspectos éticos como técnicos, que guíe la implementación efectiva y ética de la IA.
Innovación, ética y marcos regulatorios
El Parlamento Europeo aprobó recientemente la primera ley de IA en el mundo.
Este marco jurídico aborda los riesgos asociados a la IA, con la finalidad de establecer requisitos y obligaciones claras para usos específicos.
La Ley identifica como sistemas de IA de alto riesgo a la tecnología utilizada en “aplicación de la ley que pueda interferir con los derechos fundamentales de las personas” (por ejemplo, evaluación de la fiabilidad de las pruebas) y también a la “administración de justicia y procesos democráticos” (por ejemplo, buscadores de sentencias basadas en IA).
Estos desarrollos normativos son necesarios para prevenir desigualdades en la administración de justicia y asegurar que la IA contribuya a un sistema judicial más justo, eficiente y accesible para todas las personas.
Cooperación interdisciplinar y modelo de sociedad
La cooperación entre profesionales del derecho, tecnólogos y sociedad es fundamental para determinar el rol de la IA en los sistemas judiciales.
Solo a través del debate y la colaboración interdisciplinaria se puede garantizar que la tecnología contribuya de manera positiva al futuro de la justicia.
¿Qué sigue en esta conversación sobre la IA y la justicia? ¿Cómo hacemos la justicia verdaderamente justa y accesible para todos?
Este debate no es solo técnico. Es sobre qué tipo de sociedad queremos ser. En un mundo digital, nuestro gran reto es asegurar que la tecnología mejore la vida de todos.
Yaritza Pérez-Pacheco, Coordinadora de Investigación UNIR México, UNIR – Universidad Internacional de La Rioja
Este artículo fue publicado originalmente en The Conversation. Lea el original.