Van
un abogado francés, un abogado chino y un abogado español a un juzgado. El
cliente francés le pregunta a su abogado “¿Los jueces suelen absolver a los
demandados en mi situación?” a lo que el abogado francés responde “Ni lo sé, ni
quiero saberlo”. El cliente chino le pregunta a su abogado “¿Los jueces suelen
absolver a los demandados en mi situación?” a lo que el abogado responde “En un
59% de los casos atendiendo a la instancia y a la sede del juzgado”. Finalmente
el cliente español le pregunta a su abogado “¿Los jueces suelen absolver a los
demandados en mi situación?” y el abogado español le responde “Depende de lo
que diga la sentencia”.
El chiste puede parecer malo y se debe a que, ciertamente,
lo es. Pero va a servir de hilo conductor de la presente entrada. Con lo que en
ella vamos a exponer podrán entender el porqué del chiste, así que les ruego
que vuelvan a leerlo cuando terminen el artículo y que tengan piedad de este
letrado.
Nuestra intención es abordar numerosos asuntos relativos a
inteligencia artificial en una serie de artículos específicos, pero queríamos
aprovechar este día de agosto para tratar brevemente un asunto que entendemos
interesante para casi todos, para los profesionales del derecho, por sus
implicaciones, para quienes tienen controversias pendientes en sede judicial,
por sus consecuencias y para la administración de justicia por sus efectos. Nos
referimos al uso de inteligencias artificiales destinadas a prever el resultado
de procedimientos jurídicos atendidos los fallos anteriores en asuntos análogos,
similares o idénticos y la incorporación de inteligencias artificiales capaces
de fallar en procedimiento judiciales.
Así, como tesis de principio, entendemos que la
inteligencia artificial sería nutrida de los datos estadísticos de fallos de
los distintos juzgados o tribunales con relación a supuestos de hecho que se
clasificarían teniendo en cuenta las circunstancias básicas que lo conforman.
Estas inteligencias artificiales tratarían la información de una forma
distintas a las bases de datos actuales, pues deberían hacer suyos los
argumentos para poder aplicarlos a un supuesto de hecho concreto que les sean
planteado por el usuario.
Esto influiría en distinta medida a los distintos
operadores.
El abogado, tras el estudio de la documentación y la
entrevista con el cliente podrá estructurar los hechos del asunto en un
supuesto de hecho analizable por la inteligencia artificial que, informada de
la relación factual y de la jurisdicción del asunto, ofrecerá la tendencia
general de los fallos de los juzgadores en asuntos semejantes. Esta herramienta
permitirá al abogado gozar de unos indicios más objetivos para conocer la
viabilidad del asunto en cuestión (si es que su conocimiento en la materia y su
experiencia no se lo habían dado ya, como es el caso habitual). Así, los
abogados podrán transmitir a sus clientes consejo sobre la procedencia o no de
interponer el procedimiento y, en el caso de ser instados a ello, a buscar
distintos enfoques jurídicos para escapar de la estadística.
Los clientes preguntarán en las reuniones “¿Qué
posibilidades de ganar dice la maquinita que tengo?”. En este caso, la
respuesta dependerá de la configuración que se le dé a las estadísticas
publicadas y a la anchura de los datos tratados por la inteligencia artificial.
Esto es, dependerá sobre todo de si las estadísticas se publican para un juez
en concreto, para un juzgado, para los juzgados de un partido en concreto o de
una provincia en particular o son datos generales recogidas a nivel estatal.
Por último, hay quien ha considerado que, respecto a los
jueces, dicha información puede producir lo que han venido a llamar un “efecto
rebaño”. Éstos consideran que los jueces pueden verse presionados por las
matemáticas a resolver a favor de la corriente obviando el necesario ejercicio
de estudio casuístico del juzgador. Personalmente, considero que dicha
afirmación es, incluso, ofensiva. Obviamente, entre los jueces, los hay buenos
y no tan buenos, pero mi experiencia personal me indica que los jueces, en un
momento u otro del procedimiento, hacen un estudio profundo del caso, toman sus
conclusiones con arreglo al sentido común y el ordenamiento jurídico. De este
modo, no creo que pueda afirmarse que los jueces puedan verse influidos por las
estadísticas, ni por las propias ni por las relativas a su partido judicial o
provincia.
Pues bien, hablando de los jueces, podemos observar
distintas tendencias:
Los franceses ya están regulando sobre el asunto. El
artículo 33 de la Ley para la Reforma de la Justicia, que está firmemente
imbuida por el objetivo de digitalizar al máximo el sistema judicial francés,
sin embargo, impone la pena de hasta cinco años de cárcel a quienes reutilicen
los datos personales de los jueces con el objeto de analizar, evaluar, comparar
o predecir sus prácticas profesionales.
Aunque dicha prohibición ha producido un fuerte impacto en
el ámbito del legaltech, lo cierto es que en Francia la administración ya se
había pronunciado sobre la inconveniencia de que empresas privadas utilizasen
los datos personales de los jueces para publicar con distintas utilidades los
sesgos estadísticos derivados de sus fallos así como los argumentos que,
generalmente, los sustentaban.
Además, el Gobierno francés se ha inclinado por considerar
que la conducta prohibida atentaría contra la independencia de los jueces, pero
no descarta que sean herramientas controladas por la propia administración las
que ofrezcan la información sobre los fallos de los jueces, eso sí, se
entiende, evitando la identificación de los jueces que dictan las resoluciones.
Hay quien dice que la promulgación de este artículo 33 es
consecuencia de la presión corporativa de los jueces franceses, con gran poder
institucional en Francia. Pero las presiones no quedarían ahí, en un nuevo giro
en los acontecimientos, sería el Consejo General de la Abogacía francés el que
abogaría (permítanme la redundancia y la obviedad) porque los datos personales de
los abogados tampoco pudiesen ser tratados, de manera que no pudiesen
publicarse junto a su nombre la información sobre las acciones o excepciones
ejercitadas o los argumentos utilizados ni (lo que parece la causa más probable
de las presiones) los resultados de sus actuaciones en los procedimientos
judiciales ante las distintas instancias.
Partes interesadas (sobre todo de países en los que el
legaltech se está desarrollando a una velocidad mayor, como EEUU) han venido a
criticar fuertemente la legislación francesa por entenderla un freno
perjudicial a la introducción de las nuevas tecnologías en el derecho, llevando
a afirmar que intentan tender un muro entre el derecho y las matemáticas.
Polémicas aparte, ya tenemos una postura clara y sobre el papel (timbrado) de
un país como Francia. Sin embargo, habrá que ver cómo se plasma en la práctica
la norma aludida, toda vez que habrá que conocer el alcance de la prohibición
penada con la cárcel a la que tanto temen los profesionales franceses, a los
que, como es normal, los cinco años de cárcel están disuadiendo de implementar
los sistemas de predicción y análisis jurídico. Ahora van cogiendo el chiste
¿eh?
Otra posición, totalmente contraria es la china. China ha
dado dos pasos de gigante en este sentido. Por una parte, importantes trabajos
de universidades del país se están llevando a cabo mediante la recolección de
datos de los distintos juzgados de los distintos distritos de las distintas
regiones del país con el objeto de dotar a los usuarios de una base de datos
que pueda ser analizada y tratada por una inteligencia artificial y que arroje
luz sobre el comportamiento de los distintos juzgados y tribunales del país. Dicha
información, al ser tratada, podrá traducirse en estadísticas orientativas de
los argumentos aprehendidos por los distintos tribunales para sustentar sus
fallos. No queda claro si los datos de las resoluciones estarán
indefectiblemente unidos a los de los jueces que los emiten; lo que sí parece
es que no hay prohibición que lo impida, más allá de la practicidad de dicha
medida en un país con una población y administración enormes.
El segundo paso es el que acaba de dar la “Corte de
Internet de Beijing”. La institución ha lanzado un sistema de litigación online
en la que una inteligencia artificial dotada de un interfaz audiovisual se
comunicará con los litigantes, resolverá controversias que le hayan sido
asignadas y resolverá consultas relativas a los procedimientos de los que
entienda.
En esta misma estela está Estonia, un país en que la
digitalización está encontrando un entorno muy favorable. Se prevé el
desarrollo de un sistema de jueces robot (inteligencia artificial) que
resolverán sobre asuntos de cuantía comprendida entre los 6.000 y los 7.000 Euros
y, previsiblemente, en asuntos que “sólo” requieran para su solución la
aplicación de normas o cláusulas contractuales, para lo cual los litigante sólo
tendrían que subir a internet la documentación de que intenten valerse. Ya está
previsto que los fallos de esta “instancia robótica” puedan ser recurridos ante
jueces humanos que actuarán para corregir las resoluciones en las que la
inteligencia artificial no haya ofrecido una solución conforme a derecho como
consecuencia de sus naturales carencias, carencias que serán advertidas por la
propia inteligencia artificial.
Por, último, en España, parece que el Consejo General del
Poder Judicial se está planteando el desarrollo de una inteligencia artificial
dependiente del mismo que prediga el resultado de un procedimiento. Se ha
mencionado la “Justicia predictiva” entendida como un proyecto de sentencia
dada la jurisprudencia existente y habida cuenta de la información con la que
ha sido nutrida la inteligencia artificial sobre el caso concreto, para poder
subsumirlo en un supuesto de hecho conocido.
Obviamente, este anuncio del CGPJ ha producido respuestas
de todo tipo. Quienes se muestran a favor destacan el previsible descenso de la
litigiosidad, pues los litigantes más moderados podrán ponderar la conveniencia
de interponer el procedimiento o no dada la predicción formulada por la
inteligencia artificial, dejando la sede judicial para los asuntos que menos se
ajusten a los supuestos de hecho ponderados por la inteligencia artificial o
para los litigantes más audaces que, me temo, acaban considerándose en el
supuesto de no admitirse sus pretensiones, en temerarios.
Quienes se muestran más en contra consideran, como
mencionamos con anterioridad, que los jueces pueden verse presionados en su
criterio por el resultado basado más en la estadística que en el derecho que
pueda ofrecer la inteligencia artificial (afirmación un tanto débil por cuanto si
bien es cierto que la respuesta es producto de la estadística, lo es basada en
los argumentos jurídicos contenidos las distintas sentencias almacenadas). Por otra
parte, en una afirmación algo exagerada, algunos expertos prevén que la
introducción de estas inteligencias artificiales acabe por modificar la
naturaleza de nuestro sistema judicial, desplazándolo hacia un sistema más
jurisprudencial (como el anglosajón) que legalista (como el actual).
Lo cierto es que los jueces consultados se han mostrado
algo escépticos sobre el asunto toda vez que entienden que estas inteligencias
artificiales no serán capaces de asumir tareas tan sensibles como la valoración
de la prueba o la ponderación de elementos éticos o de equidad en las
resoluciones dictadas y que, además, la Constitución Española prevé que la función
judicial está atribuida a los Jueces y no a las inteligencias artificiales.
Todo ello nos hace suponer que en España, mientras no se regule sobre el
asunto, dichas inteligencias artificiales procederán de la iniciativa privada y
su solvencia y eficacia deberá ser analizada por los usuarios e la misma. Así,
lo más seguro parecer ser seguir estudiando jurisprudencia y aún así no estar seguro
del resultado del juicio... hasta la sentencia.
Octavio Gil Tamayo
Abogado
No hay comentarios:
Publicar un comentario