¿Es cierto que pronto tendremos un juez robot?

(Para enrica priolo)
21/02/22

hombre y maquina. Una combinación a la que, a estas alturas, ya estamos acostumbrados y que asusta cada vez que se pronuncia. El dilema básico es entender hasta qué punto el hombre debe ceder espacio de maniobra a la máquina.

Uno de los campos del conocimiento en el que más discusión hay es sin duda el del derecho, en particular de las denominadas decisiones judiciales automatizadas.

Es cierto que muy pronto tendremos un juez robot? Para responder, primero identifique qué se entiende, en general, por predicción y predicción.

Existen al menos cuatro situaciones en el que la ley y los operadores (juristas y legisladores) se miden con el “pronóstico” o con la necesidad/capacidad de ver y evaluar anticipadamente lo que sucederá en el futuro. Veámoslos.

1) La disposición normativa. En el léxico de los juristas la expresión "predicción normativa" aparece a menudo para indicar la situación abstracta que imagina el legislador ya cuya existencia se reconecta el surgimiento de ciertas consecuencias. En ciertos contextos coincide con el llamado "caso abstracto".

El concepto de predicción es, por tanto, inherente al de norma: la tarea de esta última es prefigurar una posible situación en el futuro. Cuando interpretamos una sentencia normativa nos vemos abocados, por un lado, a imaginar las circunstancias fácticas en las que puede aplicarse y, por otro, a preguntarnos el por qué de esa disposición, tratando de identificar las razones que impulsaron al legislador. hacer o no hacer ciertas elecciones.

2) La previsibilidad/previsibilidad de la respuesta del ordenamiento jurídico: la seguridad jurídica.

La predicción del resultado de una disputa se sitúa en una perspectiva conectada con lo que se acaba de decir.

La sentencia marca el paso de la "disposición normativa" abstracta a la justicia del caso individual al que se aplica esa disposición. Es el momento en que el caso concreto se adapta perfectamente al caso abstracto según un modelo silogístico de razonamiento. La idea de un "derecho calculable" se basa en la creencia de que el resultado de cualquier disputa debe ser "predecible". Precisamente este supuesto da cuerpo a uno de los pilares de nuestra civilización jurídica: el de la "seguridad jurídica". El ordenamiento jurídico obligatorio en relación a un problema dado debe dar siempre la misma respuesta. Porque cierto es sólo lo que es predecible. 

3) La predicción de los efectos de la regulación.

Asumiendo el punto de vista de los reguladores/legisladores (y de los juristas que colaboran con ellos) hay que recordar que, desde hace algunos años, se ha puesto cada vez más énfasis en la necesidad de "prever" los efectos de las normas y reglamentos: las normas deben ser emitir sólo si, al final de una investigación adecuada, es razonablemente seguro que tendrán los efectos deseados y esperados.

Por lo tanto, es necesario ser razonablemente capaz de "predecir":

a) cómo reaccionarán los asociados a las nuevas reglas (si mantendrán o no los comportamientos deseados y/o impuestos);

b) si los efectos producidos por las nuevas normas conducirán realmente a la consecución de los objetivos deseados.

4) La predicción/predictividad de la inteligencia artificial.

La nueva frontera está representada por las capacidades predictivas de la inteligencia artificial, aunque sería mejor decir la "Ciencia de los datos" y "procesamiento de datos" aplicada al mundo del derecho ("legal analytics"). Dejando de lado el conocido caso estadounidense Loomis (en el que al software COMPAS parecía haberle delegado la capacidad de predecir la aptitud del señor Loomis para la reincidencia), aquí nos referimos a la capacidad de elaborar predicciones mediante un cálculo probabilístico realizado por algoritmos que operan sobre una base simplemente estadística o sobre una base lógica.

El análisis legal se puede utilizar para predecir el resultado de un juicio. 

En 2016, por ejemplo, se llevó a cabo un estudio que, gracias a los avances en el procesamiento del lenguaje natural y el aprendizaje automático, tuvo como objetivo construir modelos predictivos útiles para desentrañar los patrones que guían las decisiones judiciales. El trabajo predijo el resultado de los casos analizados por el Tribunal Europeo de Derechos Humanos en función de su contenido textual: el pronóstico fue exitoso en el 79% de los casos. Y, de manera más general, puede usarse para predecir el comportamiento de todos los actores en el sistema legal. Máquina Lex, una emanación de Lexis-Nexis, combina datos y software para crear conjuntos de datos sobre jueces, abogados, partes y sujetos de litigio, analizando millones de páginas de información sobre disputas. Con estos datos, los abogados pueden predecir los comportamientos y resultados que producirán las diversas estrategias legales posibles.

La "análisis jurídico" pretende predecir los resultados de los procesos: no sobre la base de un razonamiento jurídico riguroso y mecánico, sino a la luz de sofisticados análisis algorítmicos/estadísticos de enormes cantidades de datos (grandes volúmenes de datos).

Una cosa es hipotetizar posibles orientaciones de un tribunal, jueces, operadores. Otra cosa es predecir con certeza el resultado de un solo juicio. Para lograr esto deberíamos tener algoritmos capaces de gobernar la incertidumbre y la imprevisibilidad. Y, en todo caso, quedaría el problema ético sobre la legitimidad de confiar una decisión judicial a este tipo de algoritmos.

Respecto a este último aspecto, es necesario recordar el trabajo realizado por Comisión Europea para la eficacia de la justicia (CEPEJ), que ha adoptado la denominada Carta Ética Europea sobre el uso de la inteligencia artificial en los sistemas judiciales y áreas afines. La Carta, emitida en 2018, estableció cinco principios clave sobre el uso de la Inteligencia Artificial en el sistema de "justicia".

Mientras tanto, vea qué entiende Europa por inteligencia artificial

Conjunto de métodos científicos, teorías y técnicas encaminadas a reproducir las capacidades cognitivas de los seres humanos por medio de máquinas. Los desarrollos actuales apuntan a hacer que las máquinas realicen tareas complejas que antes realizaban los humanos. Sin embargo, la expresión "inteligencia artificial" es criticada por los expertos, que distinguen entre inteligencias artificiales "fuertes" (capaces de contextualizar problemas especializados de diversa índole de forma completamente autónoma) e inteligencias artificiales "débiles" o "moderadas" (alto rendimiento en su área de entrenamiento). Algunos expertos argumentan que las inteligencias artificiales "fuertes", para poder modelar el mundo en su totalidad, requerirían avances significativos en la investigación básica y no solo mejoras simples en el rendimiento de los sistemas existentes. Las herramientas mencionadas en este documento se desarrollan utilizando métodos de aprendizaje automático, es decir, inteligencias artificiales "débiles".

y que quiere decir Justicia predictiva (Justicia Predictiva)

La justicia predictiva significa el análisis de un gran número de decisiones judiciales utilizando tecnologías de inteligencia artificial para formular predicciones sobre el resultado de ciertos tipos de disputas especializadas (por ejemplo, aquellas relacionadas con indemnizaciones por despido o pagos de alimentos) . El término "predictivo" utilizado por las empresas de legal tech está tomado de las ramas de la ciencia (principalmente la estadística) que permiten predecir resultados futuros gracias al análisis inductivo. Las decisiones judiciales se procesan para descubrir correlaciones entre los datos de entrada (criterios establecidos por la ley, hechos del caso, motivación) y los datos de salida (decisión formal relativa, por ejemplo, al monto de la indemnización). Las correlaciones que se consideren relevantes permiten la creación de modelos que, al ser utilizados con nuevos datos de entrada (nuevos hechos o aclaraciones introducidas en forma de parámetros, como la duración de la relación contractual), producen según sus desarrolladores una previsión de la decisión.

Algunos autores han criticado este enfoque tanto formal como sustancialmente, argumentando que, en general, la modelización matemática de determinados fenómenos sociales no es una tarea comparable a otras actividades más fácilmente cuantificables (aislar los factores verdaderamente causales de una decisión judicial es una tarea infinitamente más compleja para jugar, por ejemplo, a un juego de Go o reconocer una imagen): el riesgo de falsas correlaciones es mucho mayor. Además, en doctrina, dos decisiones contradictorias pueden resultar válidas si el razonamiento jurídico es fundado. En consecuencia, la formulación de previsiones constituiría un ejercicio de carácter meramente indicativo y sin pretensión prescriptiva alguna.

Una vez fijados los plazos, vamos a conocer cuáles son los principios básicos establecidos por la CEPEJ

1) PRINCIPIO DE RESPETO A LOS DERECHOS FUNDAMENTALES:

asegurar el desarrollo e implementación de herramientas y servicios de inteligencia artificial que sean compatibles con los derechos fundamentales. Cuando se utilizan herramientas de inteligencia artificial para resolver una disputa, para brindar apoyo en la toma de decisiones judiciales o para orientar al público, es fundamental asegurarse de que no socaven las garantías del derecho de acceso a un juez y el derecho a un juicio justo (igualdad de armas y respeto al adversario).

Esto significa que, desde las etapas de desarrollo y aprendizaje, deben existir disposiciones plenas que prohíban la violación directa o indirecta de los valores fundamentales protegidos por los Convenios supranacionales.

Derechos humanos por diseño.

2) PRINCIPIO DE NO DISCRIMINACIÓN:

impedir específicamente el desarrollo o la intensificación de cualquier discriminación entre personas o grupos de personas. Dada la capacidad de estos métodos de procesamiento para revelar la discriminación existente, a través de la agrupación o clasificación de datos relativos a individuos o grupos de personas, los actores públicos y privados deben asegurarse de que las metodologías no reproduzcan o agraven dicha discriminación y que no conduzcan a análisis o usos deterministas.

El método debe ser NO discriminatorio.

3) PRINCIPIO DE CALIDAD Y SEGURIDAD:

en lo que respecta al procesamiento de decisiones y datos judiciales, utilizar fuentes certificadas y datos intangibles con modelos desarrollados multidisciplinarios, en un entorno tecnológico seguro. Los creadores de modelos de aprendizaje automático deberían poder aprovechar ampliamente la experiencia de los profesionales e investigadores relevantes del sistema de justicia en los campos del derecho y las ciencias sociales. El establecimiento de equipos de proyecto mixtos, para ciclos de procesamiento cortos, con el fin de producir modelos funcionales es uno de los métodos organizativos que permiten obtener lo mejor de este enfoque multidisciplinario.

Cuanto más diseñemos, mejor.

4) PRINCIPIO DE TRANSPARENCIA, IMPARCIALIDAD Y JUSTICIA:

hacer que los métodos de procesamiento de datos sean accesibles y comprensibles, autorizar auditorías externas. Debe lograrse un equilibrio entre la propiedad intelectual de algunas metodologías de procesamiento y la necesidad de transparencia (acceso al proceso creativo), imparcialidad (ausencia de sesgo), equidad e integridad intelectual (privilegiar los intereses de la justicia) cuando se utilizan herramientas que pueden tener consecuencias legales, o que puedan afectar significativamente la vida de las personas. Debe entenderse que tales medidas se aplican a todo el proceso creativo, así como a la cadena operativa, ya que la metodología de selección y la calidad y organización de los datos influyen directamente en la fase de aprendizaje.

La Inteligencia Artificial debe poder ser verificada por terceros.

5) PRINCIPIO DE "CONTROL POR EL USUARIO":

impedir un enfoque prescriptivo y garantizar que los usuarios sean actores informados y tengan el control de sus elecciones. El uso de herramientas y servicios de inteligencia artificial debe fortalecer y no limitar la autonomía del usuario. El usuario debe ser informado en un lenguaje claro y comprensible del carácter vinculante o no de las soluciones propuestas por las herramientas de inteligencia artificial, de las diferentes posibilidades disponibles, y de su derecho a recibir asistencia jurídica y a acceder a un tribunal. También debe estar claramente informado de cualquier manejo previo de un caso utilizando inteligencia artificial, antes o en el curso de un procedimiento judicial, y debe tener derecho a objetar, para que su caso sea juzgado directamente por un tribunal de justicia. al artículo 6 del CEDH.

Infórmese adecuadamente para verificar sus opciones.

Conclusiones:

Vistos más de cerca, los principios dictados por la CEPEJ nos muestran un camino, que se puede resumir (adaptándolo al contexto judicial) con una noción desarrollada durante el debate internacional que se desarrolló en el seno de la ONU sobre las armas autónomas. En la imposibilidad de determinar el estado computacional de la herramienta de inteligencia artificial y, por tanto, un control completo sobre la ejecución del algoritmo predictivo, para remediar la alteración de la "corrección e igualdad de la controversia entre las partes y entre éstas y el juez “Debe reforzarse el pedido de que la decisión predictiva se tome sin utilizar únicamente los resultados puramente probabilísticos obtenidos, no solo porque su cumplimiento no siempre es adecuadamente verificable.

Nos referimos a la sugerencia doctrinal según la cual debe sancionarse que el uso de la máquina en los tribunales está sujeto a un control humano significativo representado por las siguientes condiciones esenciales:

1) que su funcionamiento se haga público y se evalúe de acuerdo con los criterios de de revisión por pares;

2) que se conozca la tasa de error potencial;

3) que explicaciones adecuadas traduzcan la “fórmula técnica” que constituye el algoritmo en la norma jurídica, de modo que sea legible y comprensible para el juez, las partes y sus defensores;

4) que se salvaguarde el contrainterrogatorio sobre la elección de los elementos archivados, sobre sus agrupaciones y sobre las correlaciones de los datos procesados ​​por el aparato de inteligencia artificial, particularmente en relación con el objeto de la disputa;

5) que su aceptación por el juez está justificada a la luz de lo surgido en el tribunal y por las circunstancias de hecho valoradas según el principio de libre convicción.

   

Sitografía:

https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-nei-si/1680993348

https://teseo.unitn.it/biolaw/article/view/1353

https://www.agendadigitale.eu/cultura-digitale/predire-il-futuro-fra-machine-learning-e-magia/

https://archiviodpc.dirittopenaleuomo.org/d/6735-sistema-penale-e-intelligenza-artificiale-molte-speranze-e-qualche-equivoco

S. QUATTROCOLO, Equidad del proceso penal y prueba automatizada a la luz del convenio europeo de derechos humanos, en Rev. italo-española der. proc., 2019, disponible en http://www.revistasmarcialpons.es/rivitsproc/

https://www.europarl.europa.eu/RegData/etudes/STUD/2020/656295/IPOL_STU(2020)656295_EN.pdf

https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_it.pdf

https://archiviodpc.dirittopenaleuomo.org/upload/3089-basile2019.pdf

Bibliografía:

Inteligencia artificial. Un enfoque moderno, Russell y Norvig, Pearson.

Yuval Noah Harari, Homo Deus: una breve historia del mañana, Editorial Vintage.

GWF HEGEL, Esbozos de filosofía del derecho, 1821, trad. it., Bari, 1996.

G. ROMANO, Derecho, robótica y teoría de juegos: reflexiones sobre una sinergia, en G. Alpa (editado por), Derecho e inteligencia artificial, Pisa, 2020

G. TAMBURRINI, Ética de las máquinas. Dilemas morales para la robótica y la inteligencia artificial, Roma, 2020

U. RUFFOLO - A. AMIDEI, Inteligencia Artificial, mejora humana y derechos humanos, en Inteligencia Artificial. Derecho, derechos, ética, ya anticipados en U. RUFFOLO - A. AMIDEI, Inteligencia artificial y derechos humanos: las fronteras del "transhumanismo", en Giur.It., 2019

J. LASSÈGUE, Justicia Digital. Revolución gráfica y ruptura antropológica, París, 2018

J. NIEVA-FENOLL, Inteligencia artificial y proceso, 2018, trad. it., Turín, 2019

S. SIGNORATO, Justicia penal e inteligencia artificial. Consideraciones sobre el tema del algoritmo predictivo, en Riv. dirección proceso, 2020

Fotos: www.golegal.co.za