La Justicia Predictiva


Van un abogado francés, un abogado chino y un abogado español a un juzgado. El cliente francés le pregunta a su abogado “¿Los jueces suelen absolver a los demandados en mi situación?” a lo que el abogado francés responde “Ni lo sé, ni quiero saberlo”. El cliente chino le pregunta a su abogado “¿Los jueces suelen absolver a los demandados en mi situación?” a lo que el abogado responde “En un 59% de los casos atendiendo a la instancia y a la sede del juzgado”. Finalmente el cliente español le pregunta a su abogado “¿Los jueces suelen absolver a los demandados en mi situación?” y el abogado español le responde “Depende de lo que diga la sentencia”.

El chiste puede parecer malo y se debe a que, ciertamente, lo es. Pero va a servir de hilo conductor de la presente entrada. Con lo que en ella vamos a exponer podrán entender el porqué del chiste, así que les ruego que vuelvan a leerlo cuando terminen el artículo y que tengan piedad de este letrado.

Nuestra intención es abordar numerosos asuntos relativos a inteligencia artificial en una serie de artículos específicos, pero queríamos aprovechar este día de agosto para tratar brevemente un asunto que entendemos interesante para casi todos, para los profesionales del derecho, por sus implicaciones, para quienes tienen controversias pendientes en sede judicial, por sus consecuencias y para la administración de justicia por sus efectos. Nos referimos al uso de inteligencias artificiales destinadas a prever el resultado de procedimientos jurídicos atendidos los fallos anteriores en asuntos análogos, similares o idénticos y la incorporación de inteligencias artificiales capaces de fallar en procedimiento judiciales.

Así, como tesis de principio, entendemos que la inteligencia artificial sería nutrida de los datos estadísticos de fallos de los distintos juzgados o tribunales con relación a supuestos de hecho que se clasificarían teniendo en cuenta las circunstancias básicas que lo conforman. Estas inteligencias artificiales tratarían la información de una forma distintas a las bases de datos actuales, pues deberían hacer suyos los argumentos para poder aplicarlos a un supuesto de hecho concreto que les sean planteado por el usuario.

Esto influiría en distinta medida a los distintos operadores.

El abogado, tras el estudio de la documentación y la entrevista con el cliente podrá estructurar los hechos del asunto en un supuesto de hecho analizable por la inteligencia artificial que, informada de la relación factual y de la jurisdicción del asunto, ofrecerá la tendencia general de los fallos de los juzgadores en asuntos semejantes. Esta herramienta permitirá al abogado gozar de unos indicios más objetivos para conocer la viabilidad del asunto en cuestión (si es que su conocimiento en la materia y su experiencia no se lo habían dado ya, como es el caso habitual). Así, los abogados podrán transmitir a sus clientes consejo sobre la procedencia o no de interponer el procedimiento y, en el caso de ser instados a ello, a buscar distintos enfoques jurídicos para escapar de la estadística.

Los clientes preguntarán en las reuniones “¿Qué posibilidades de ganar dice la maquinita que tengo?”. En este caso, la respuesta dependerá de la configuración que se le dé a las estadísticas publicadas y a la anchura de los datos tratados por la inteligencia artificial. Esto es, dependerá sobre todo de si las estadísticas se publican para un juez en concreto, para un juzgado, para los juzgados de un partido en concreto o de una provincia en particular o son datos generales recogidas a nivel estatal.

Por último, hay quien ha considerado que, respecto a los jueces, dicha información puede producir lo que han venido a llamar un “efecto rebaño”. Éstos consideran que los jueces pueden verse presionados por las matemáticas a resolver a favor de la corriente obviando el necesario ejercicio de estudio casuístico del juzgador. Personalmente, considero que dicha afirmación es, incluso, ofensiva. Obviamente, entre los jueces, los hay buenos y no tan buenos, pero mi experiencia personal me indica que los jueces, en un momento u otro del procedimiento, hacen un estudio profundo del caso, toman sus conclusiones con arreglo al sentido común y el ordenamiento jurídico. De este modo, no creo que pueda afirmarse que los jueces puedan verse influidos por las estadísticas, ni por las propias ni por las relativas a su partido judicial o provincia.

Pues bien, hablando de los jueces, podemos observar distintas tendencias:

Los franceses ya están regulando sobre el asunto. El artículo 33 de la Ley para la Reforma de la Justicia, que está firmemente imbuida por el objetivo de digitalizar al máximo el sistema judicial francés, sin embargo, impone la pena de hasta cinco años de cárcel a quienes reutilicen los datos personales de los jueces con el objeto de analizar, evaluar, comparar o predecir sus prácticas profesionales.

Aunque dicha prohibición ha producido un fuerte impacto en el ámbito del legaltech, lo cierto es que en Francia la administración ya se había pronunciado sobre la inconveniencia de que empresas privadas utilizasen los datos personales de los jueces para publicar con distintas utilidades los sesgos estadísticos derivados de sus fallos así como los argumentos que, generalmente, los sustentaban.

Además, el Gobierno francés se ha inclinado por considerar que la conducta prohibida atentaría contra la independencia de los jueces, pero no descarta que sean herramientas controladas por la propia administración las que ofrezcan la información sobre los fallos de los jueces, eso sí, se entiende, evitando la identificación de los jueces que dictan las resoluciones.

Hay quien dice que la promulgación de este artículo 33 es consecuencia de la presión corporativa de los jueces franceses, con gran poder institucional en Francia. Pero las presiones no quedarían ahí, en un nuevo giro en los acontecimientos, sería el Consejo General de la Abogacía francés el que abogaría (permítanme la redundancia y la obviedad) porque los datos personales de los abogados tampoco pudiesen ser tratados, de manera que no pudiesen publicarse junto a su nombre la información sobre las acciones o excepciones ejercitadas o los argumentos utilizados ni (lo que parece la causa más probable de las presiones) los resultados de sus actuaciones en los procedimientos judiciales ante las distintas instancias.

Partes interesadas (sobre todo de países en los que el legaltech se está desarrollando a una velocidad mayor, como EEUU) han venido a criticar fuertemente la legislación francesa por entenderla un freno perjudicial a la introducción de las nuevas tecnologías en el derecho, llevando a afirmar que intentan tender un muro entre el derecho y las matemáticas. Polémicas aparte, ya tenemos una postura clara y sobre el papel (timbrado) de un país como Francia. Sin embargo, habrá que ver cómo se plasma en la práctica la norma aludida, toda vez que habrá que conocer el alcance de la prohibición penada con la cárcel a la que tanto temen los profesionales franceses, a los que, como es normal, los cinco años de cárcel están disuadiendo de implementar los sistemas de predicción y análisis jurídico. Ahora van cogiendo el chiste ¿eh?

Otra posición, totalmente contraria es la china. China ha dado dos pasos de gigante en este sentido. Por una parte, importantes trabajos de universidades del país se están llevando a cabo mediante la recolección de datos de los distintos juzgados de los distintos distritos de las distintas regiones del país con el objeto de dotar a los usuarios de una base de datos que pueda ser analizada y tratada por una inteligencia artificial y que arroje luz sobre el comportamiento de los distintos juzgados y tribunales del país. Dicha información, al ser tratada, podrá traducirse en estadísticas orientativas de los argumentos aprehendidos por los distintos tribunales para sustentar sus fallos. No queda claro si los datos de las resoluciones estarán indefectiblemente unidos a los de los jueces que los emiten; lo que sí parece es que no hay prohibición que lo impida, más allá de la practicidad de dicha medida en un país con una población y administración enormes.

El segundo paso es el que acaba de dar la “Corte de Internet de Beijing”. La institución ha lanzado un sistema de litigación online en la que una inteligencia artificial dotada de un interfaz audiovisual se comunicará con los litigantes, resolverá controversias que le hayan sido asignadas y resolverá consultas relativas a los procedimientos de los que entienda.

En esta misma estela está Estonia, un país en que la digitalización está encontrando un entorno muy favorable. Se prevé el desarrollo de un sistema de jueces robot (inteligencia artificial) que resolverán sobre asuntos de cuantía comprendida entre los 6.000 y los 7.000 Euros y, previsiblemente, en asuntos que “sólo” requieran para su solución la aplicación de normas o cláusulas contractuales, para lo cual los litigante sólo tendrían que subir a internet la documentación de que intenten valerse. Ya está previsto que los fallos de esta “instancia robótica” puedan ser recurridos ante jueces humanos que actuarán para corregir las resoluciones en las que la inteligencia artificial no haya ofrecido una solución conforme a derecho como consecuencia de sus naturales carencias, carencias que serán advertidas por la propia inteligencia artificial.

Por, último, en España, parece que el Consejo General del Poder Judicial se está planteando el desarrollo de una inteligencia artificial dependiente del mismo que prediga el resultado de un procedimiento. Se ha mencionado la “Justicia predictiva” entendida como un proyecto de sentencia dada la jurisprudencia existente y habida cuenta de la información con la que ha sido nutrida la inteligencia artificial sobre el caso concreto, para poder subsumirlo en un supuesto de hecho conocido.

Obviamente, este anuncio del CGPJ ha producido respuestas de todo tipo. Quienes se muestran a favor destacan el previsible descenso de la litigiosidad, pues los litigantes más moderados podrán ponderar la conveniencia de interponer el procedimiento o no dada la predicción formulada por la inteligencia artificial, dejando la sede judicial para los asuntos que menos se ajusten a los supuestos de hecho ponderados por la inteligencia artificial o para los litigantes más audaces que, me temo, acaban considerándose en el supuesto de no admitirse sus pretensiones, en temerarios.

Quienes se muestran más en contra consideran, como mencionamos con anterioridad, que los jueces pueden verse presionados en su criterio por el resultado basado más en la estadística que en el derecho que pueda ofrecer la inteligencia artificial (afirmación un tanto débil por cuanto si bien es cierto que la respuesta es producto de la estadística, lo es basada en los argumentos jurídicos contenidos las distintas sentencias almacenadas). Por otra parte, en una afirmación algo exagerada, algunos expertos prevén que la introducción de estas inteligencias artificiales acabe por modificar la naturaleza de nuestro sistema judicial, desplazándolo hacia un sistema más jurisprudencial (como el anglosajón) que legalista (como el actual).

Lo cierto es que los jueces consultados se han mostrado algo escépticos sobre el asunto toda vez que entienden que estas inteligencias artificiales no serán capaces de asumir tareas tan sensibles como la valoración de la prueba o la ponderación de elementos éticos o de equidad en las resoluciones dictadas y que, además, la Constitución Española prevé que la función judicial está atribuida a los Jueces y no a las inteligencias artificiales. Todo ello nos hace suponer que en España, mientras no se regule sobre el asunto, dichas inteligencias artificiales procederán de la iniciativa privada y su solvencia y eficacia deberá ser analizada por los usuarios e la misma. Así, lo más seguro parecer ser seguir estudiando jurisprudencia y aún así no estar seguro del resultado del juicio... hasta la sentencia.  

Octavio Gil Tamayo
Abogado

No hay comentarios:

Publicar un comentario