Inteligencia Artificial y Administración de Justicia: una disrupción relativa

Inteligencia Artificial y Administración de Justicia: una disrupción relativa

Ponencia: Raúl C. Cancio Fernández

Moderación: Gonzalo Romero Jiménez

Los anhelos disruptivos en la plena aplicación de la inteligencia artificial (IA) en el ámbito de la Administración de Justicia, no enervan, sin embargo, que hay una realidad ineludible -e inevitable-, como es la creciente demanda social de vincular sistemas de IA y tribunales, o más concretamente, el algoritmo y la decisión judicial.

A día de hoy, la sustitución directa de la actividad humana en la decisión judicial es puramente quimérica a corto y medio plazo, lo cual no ensombrece un muy apreciable repertorio de acciones benéficas que, en este ámbito, la IA puede dispensar, desde la textualización de vistas al empleo de bots para la atención al justiciable, pasando por la activación de alertas tempranas de índole procesal.

La carencia tanto de un marco regulatorio solvente a nivel nacional y supranacional como el inexistente encuadre procesal ineludible, así como inconvenientes relacionados con el sesgo potencialmente discriminatorio; la vulnerabilidad de derechos fundamentales; la pura búsqueda de la imitación tecnológica de las pautas de comportamiento humano; la desnaturalización del principio heurístico o incapacidades técnicas como el todavía incompleto procesamiento del lenguaje humano, son algunas de las cuestiones relacionadas con la aplicación de la IA al sistema de Administración de Justicia que fueron tratadas por Raúl C. Cancio Fernández, Letrado del Tribunal Supremo – Sala de lo Contencioso-Administrativo, nuestro ponente invitado a la última aula de sociedad digital del año.

Dando inicio a su exposición, Cancio señala que el algoritmo ha adquirido un carácter dinámico permitiendo la toma de decisiones de forma autónoma, aunque, de momento, este mecanismo absolutamente automatizado no se contemple en la legislación española. Enfatiza la importancia que tiene la resignificación y catalogación jurídica del algoritmo dada su relevancia desde el punto de vista estrictamente procesal. Para algunos autores, dentro de los sistemas de control en el ámbito jurisdiccional se deberían exigir al algoritmo las mismas características que se exigen a las fuentes del derecho; esto es legalidad, regulación competencial, transparencia procedimental, publicidad normativa y naturaleza pública demanial. Habría que preguntarse, en este punto, si al exigirse estas características al algoritmo, y si éste es utilizado por un juez, se puede considerar, o no, fuente del derecho con las consecuencias jurídicas probatorias que esto conlleva. Hay quienes consideran que el algoritmo es solo un cauce por donde el juez va a valorarlo como prueba digital, pero en ningún momento podría considerarse que la estructura de las fuentes deba cambiar.

Se propone así el análisis de algunos problemas que se encuentran en la aplicación de la IA en la Administración de Justicia, centrándose inicialmente en el marco normativo existente, donde de momento solo hay disposiciones de carácter prescriptivo que establecen marcos de actuación, pero que no regulan jurídicamente aún este ámbito.

A nivel europeo, se han publicado numerosos instrumentos (un Estudio sobre ética en sistemas ciberfísicos y la Carta sobre robótica, ambos de 2016, la Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica, y la Carta ética europea sobre el uso de la inteligencia artificial en los sistemas judiciales y su entorno, adoptada por el Grupo de Trabajo sobre la Calidad de la Justicia (CEPEJ-GT-QUAL) del Consejo de Europa en diciembre de 2018. Esta última establece una serie de principios de aplicación que deberán ser tenidos en cuenta cuidadosamente, a saber: el principio de respeto de los derechos fundamentales, el Principio de no discriminación, el Principio de transparencia, imparcialidad y equidad y el Principio de autonomía del usuario. A estas alturas, el contenido de la Carta ha sido superado por el Libro Blanco de la Comisión, de 19 de febrero de 2020, sobre la inteligencia artificial – un enfoque europeo orientado a la excelencia y la confianza, que para Cancio subraya dos pilares fundamentales sobre los que desarrollar la IA: la calidad del dato y su fiabilidad.

 

¿Cómo se pueden paliar los sesgos de discriminación en las decisiones judiciales que suponen un elemento volitivo y moral?

“La respuesta está en la certificación de la fuente, la gobernanza del dato y su trazabilidad. Si el mecanismo se nutre de un dato corrupto, las consecuencias podrían ser devastadoras como en el caso del sistema Compas y su incidencia en el caso Loomis en Wisconsin en 2013”, señala Cancio. Es por eso fundamental conformar equipos multidisciplinares, en los que el conocimiento de aspectos técnicos vaya de la mano de una asesoría jurídica rigurosa, así como la necesidad de establecer organismos de control y verificación de la fiabilidad del algoritmo. Nuestro ordenamiento jurídico contempla algunas paradojas que generan un tratamiento asimétrico de la información que nos ofrece la Administración de Justicia como es el caso de la anonimización.

En 2020, el Parlamento Europeo presentó un Informe con recomendaciones destinadas a la Comisión sobre un marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas, con vistas a elaborar tres propuestas de reglamento dirigidas a la regulación de la IA: el primero sobre la IA y la propiedad intelectual e industrial, el segundo sobre la responsabilidad civil por daños, y el tercero sobre los aspectos éticos de la IA, la robótica y las nuevas tecnologías. En abril de este año se redactó una propuesta sobre el tercer reglamento que determina un marco de actuación en el ámbito de la Administración de Justicia, estableciendo una Catalogación de tecnologías de IA atendiendo al riesgo, centrándose, principalmente, en el sector, las finalidades y la gravedad del daño que se pueda producir. El empleo de técnicas de IA en la Administración de Justicia está catalogado como de alto riesgo, lo cual supone que deban cumplirse ciertos requisitos apoyados en una visión antropocéntrica, medidas de alta seguridad, aplicación del principio de transparencia, capacidad de desactivación, etc., reiterando lo previsto en la Carta de 2018.

La Propuesta de Reglamento del Parlamento Europeo y del Consejo, por el que se establecen normas armonizadas en materia de Inteligencia Artificial (Ley de Inteligencia Artificial) y se modifican ciertos aspectos legislativos de la Unión, contempla en su artículo 667 que debe considerarse de alto riesgo la aplicación de la IA en la Administración de Justicia por los efectos potencialmente importantes sobre la democracia, el Estado de Derecho, las libertades individuales y el derecho de tutela efectiva y la acción de un juez imparcial. Estamos, pues, en un ámbito extremadamente sensible donde están en juego los derechos fundamentales y las garantías procesales de las personas.

La última iniciativa dentro del marco de softlaw, destacada por Cancio, fue elaborada por la UNESCO recientemente en la Resolución sobre la ética de la Inteligencia Artificial. El parágrafo 63 establece que los Estados miembros deberán reforzar la capacidad del poder judicial para adoptar decisiones relacionadas con los sistemas de IA en el marco del Estado de Derecho,  de conformidad con el derecho y las normas internacionales. En caso de que los sistemas de IA sean utilizados por el poder judicial, se deberán adoptar las medidas necesarias para garantizar la protección de los Derechos Humanos, el Estado de Derecho, la independencia judicial y el principio de supervisión humana, así como para garantizar que ese uso sea fiable, orientado al interés público y centrados en el ser humano.

 

Necesidad de un marco normativo garantista, la fiabilidad del dato y el antropocentrismo como pilar fundamental

Aunque hay una positivización normativa, es escasa e ineficaz. No podemos negar que la tecnología y la IA van a ir siempre por delante del desarrollo normativo. El derecho tiene unos tiempos más lentos que le impiden ajustarse rápidamente a los cambios sociales. El ponente reitera que estamos muy lejos de poder dar respuesta a las los retos que nos plantea la IA en la Administración de Justicia. A nivel europeo, el Reglamento UE 2016/679 del Parlamento Europeo y del Consejo relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos), toca tangencialmente este tema, sin un verdadero interés en ahondar en su tratamiento.

A nivel nacional, la situación es precaria. La Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales, en su artículo 11, trata la necesidad de transparencia de la información del afectado que pudiera ser utilizada para la elaboración de perfiles. La pandemia ha incidido profundamente en la evolución y proliferación del uso de la IA, no solo en el ámbito sanitario (asistencia sanitaria, inspecciones en remoto), sino que también se ha puesto al servicio del control ejercido por la Agencia Tributaria para hacer inspecciones con el fin de detectar falsos no residentes con patrimonio relevantes y controlar grandes tecnológicas encargadas, paradójicamente, del desarrollo de estos instrumentos.

Con la aprobación de la Carta de Derechos Digitales, en julio de 2021, se establecen algunas pautas interesantes sobre el desarrollo de esta actividad en el ámbito de la Administración Pública, lo que viene a complementarse con el Anteproyecto de Ley de Eficiencia Digital del Servicio Público de Justicia que pone el énfasis en la gobernanza y control del dato por parte de la Administración de Justicia. Este anteproyecto subraya la importancia del expediente judicial electrónico que, para Cancio, es todavía algo no implantado e irreal. Por ello, conviene entender que estamos ante una aplicación disímil de estos sistemas dependiendo de la estancia judicial a la que nos referimos.

Pasando a otro aspecto de la aplicación de la IA y para comprender la viablidad de la IA en el ámbito de la Administración de Justicia en España, es necesario echar un vistazo al desarrollo internacional. Por un lado, los gigantes digitales (Partnership on AI) han manifestado su prevención y falta de confianza en la aplicación de la IA en el ámbito de naturaleza penal, lo cual revela algunos de los problemas existentes en este ámbito.

En cuanto a la actividad preventiva, Cancio destaca algunos trabajos académicos y universitarios interesantes como el realizado por el University College of London que estableció, en 2016, un sistema de predicción de decisiones del Tribunal Europeo de Derechos Humanos que obtuvo una tasa de predicción de más del 79%. En 2014, también destacó en Estados Unidos la utilización de una masa de más de 70.000 decisiones del Tribunal Supremo para hacer pruebas de predicción a través del proyecto COMPAS. Se señalan otros ejemplos relevantes como en China y en Estonia donde se aplican sistemas plenamente automatizados para tomar decisiones sobre demandas de cuantías menores (máximo 7.000€).

Recapitulando, estamos frente a un marco normativo muy amplio, pero poco coactivo y frente a una positivización normativa alejada de las verdaderas necesidades de la sociedad y del desarrollo tecnológico.

  

Panorama de la irrupción en el ejercicio de la abogacía privada

Para Cancio, el uso de la IA en el ejercicio del derecho en el ámbito privado y el desarrollo de aplicaciones no tiene nada que ver con la Administración Pública, y esto se evidencia en el incremento exponencial de la inversión realizada por despachos de abogados en los últimos 3 a 4 años. La IA se aplica principalmente en la búsqueda de calidad de información y a la integración de bases de archivos de los despachos con información de bases de editoriales que permiten al abogado singularizar la respuesta a su cliente. Se usan bots de respuesta automatizadas, la tecnología se aplica a la propia gestión administración interna del despacho, y cada vez se desarrollan más herramientas de predicción (Jurimetría, en España, o Lexis Nexis, en Estados Unidos).

Hay una proliferación de actividades en el ámbito del legaltech privado, tanto descriptivas como predictivas, plenamente desarrolladas e implantadas (no sin algunas severas reticencias penales, como en Francia). La Ley para la reforma de la Administración de Justicia en Francia ha prohibido, por ejemplo, el uso de datos de identidad de magistrados para predecir. Frente a este panorama disímil, se hace necesaria la concreción de un marco normativo europeo integrado.

Por otro lado, la aplicación de la IA en la resolución de conflictos está más avanzado, sobre todo en el ámbito de consumo, como plataformas de concurrencia de las partes para que los conflictos sean solucionados.

El procesamiento de datos y el uso de las tecnologías para el funcionamiento diario de los tribunales, supone la automatización del proceso. Sin embargo, de momento falta una estrategia por parte de la Administración que permitan celebrar juicios telemáticos, vistas remotas, realización de pruebas remotas, etc. Adicionalmente, uno de los temas que más incertidumbre genera es cómo se puede ver afectado el derecho de privacidad de las personas en la obtención de las pruebas digitales y la viabilidad del uso de la tecnología blockchain para aportar pruebas.

Hay otras aportaciones de la IA en ámbitos adyacentes a la Administración de Justicia como la actuación del cuerpo de policía como policía judicial, por ejemplo, con la detección de denuncias falsas, topograficación del delito, atendiendo a aspectos geográficos o el reconocimiento facial aplicado al control aduanero.

De momento, y a manera de conclusión, para Cancio, el algoritmo judicial justo es imposible ontológicamente, no sólo porque hay una asimetría en la aplicación de la IA en los diferentes órganos jurisdiccionales, sino porque aún falta afinar la determinación de la terminología jurídica (expresiones ambiguas, polisemias, homonimias, conceptos jurídicos indeterminados).

La búsqueda obsesiva de pautas de comportamiento humano para dar respuestas homogeneizadas puede ahondar aún más los sesgos. Es indispensable establecer un órgano único como un Comité Técnico de la Administración de Justicia Electrónica que cuente con mecanismos de atención y respuesta a quejas y reclamos por responsabilidad en el uso y gobernanza del dato de los justiciables. Sin duda, debemos impedir como efecto no deseado la interrupción y obstrucción del ejercicio del derecho.