Inteligencia Artificial y Aplicación de la Ley: tecnología y ética del proyecto AIDA

(Para Maris Matteucci)
14/03/22

Cada vez con más frecuencia, los organismos encargados de hacer cumplir la ley utilizan la Inteligencia Artificial (IA) para combatir delitos que también son muy diferentes entre sí, incluidos los delitos cibernéticos (cybercrime) y el terrorismo. Pero, ¿cuál es la percepción de los ciudadanos respecto a esta tecnología, prometedora pero no perfecta, cuando se utiliza en el sector de la seguridad y la defensa? 

Los objetivos de "AIDA"

El tema de la prevención del delito es particularmente importante para AIDA que, sin embargo, apunta a algo aún más sutil con su proyecto de investigación europeo titulado Inteligencia artificial y análisis de datos avanzados para agencias de aplicación de la ley (Inteligencia Artificial y Análisis Avanzado de Datos para la Aplicación de la Ley - AIDA): la predicción de crímenes. Algo que puede sonar familiar a los fans de la película "Minority Report", con un jovencísimo Tom Cruise como el Capitán John Anderton y un sistema, el "Precrime", que era tan perfecto (aparentemente) que la Policía podía evitar los crímenes antes de que lo hicieran. en realidad sucedió.

En definitiva, un objetivo ambicioso, el de querer prevenir los delitos prediciéndolos mediante sofisticados algoritmos Aprendizaje automático (Machine learning & LLM) y Inteligencia artificial capaz de desentrañar y analizar información gracias a una plataforma de análisis de datos descriptivos y predictivos. Pero para conseguir el resultado, que está todo menos dictado por el mero desarrollo de tecnologías, aunque innovadoras, AIDA ha decidido "trabajar" en multitud de aspectos. Uno de ellos se centra en el componente social. ¿O qué pensaría la gente de un uso tan importante de la Inteligencia Artificial al servicio de las Fuerzas Policiales?

La importancia de la apuesta impulsó a la Unión Europea a financiar la Proyecto de investigación europeo AIDA con casi ocho millones de euros dentro del programa Horizonte 2020 (acuerdo de subvención n° 883596), que arrancó oficialmente en septiembre de 2020 y terminará en septiembre de 2022, exactamente 24 meses después.

En Italia el proyecto está liderado por Ingeniería Ingeniería Informática y ve Pluribús Uno, con sede en Cagliari, al frente de Paquete de trabajo enfocado en la generación de sistemas de IA para el manejo y adquisición de información y para el análisis simultáneo de grupos criminales. 

El proyecto AIDA tiene como objetivo desarrollar una plataforma de análisis de datos y un conjunto de herramientas ad hoc para combatir eficazmente las actividades delictivas. Sin embargo, sin dejar de lado el componente social, ese es el impacto que podría tener en la ciudadanía un uso tan masivo de la inteligencia artificial por parte de los guardianes del orden público. 

Por ello, el proyecto contempló una primera encuesta cuantitativa seguida de una cualitativa que pasó a indagar más profundamente en el pensamiento de las personas, para intentar centrar las ideas, miedos, dudas y todo lo que se les pueda ocurrir cuando se introduce la Inteligencia Artificial. jugar en el campo de la seguridad. 

La primer análisis parcial de encuestas cuantitativas (del que te hablamos en un artículo anterior) que fueron recopilados por 2850 personas en 11 países europeos diferentes destacaron, por ejemplo, que especialmente en Estonia, España e Inglaterra existe una confianza total en las fuerzas policiales y en su trabajo por parte de los ciudadanos. Los resultados fueron presentados por el socio CENTRIC, un centro de excelencia en la investigación del crimen y la lucha contra el terrorismo, con sede en la Universidad de Sheffield Hallam (Reino Unido), en la conferencia IKE'21 (20th Int'l Conf on Information & Knowledge Engineering)1.

El objetivo de AIDA es hacer que un sistema y herramientas útiles para aumentar la seguridad mundial estén disponibles para las agencias de aplicación de la ley. Pero no sin considerar el impacto que podría tener el uso masivo de la IA en la gente común. 

Es por eso que el desarrollo de la plataforma y las herramientas relacionadas se organizarán en respeto a la privacidad y tendrá en cuenta el componente ético que nunca debe ser ignorado.

La encuesta cualitativa

La encuesta sobre la IA utilizada por las Fuerzas Policiales involucró a diez naciones de Europa, para un total de unas 140 entrevistas con ciudadanos comunes. 

Por ello, Alemania, Grecia, Holanda, Inglaterra, España, Portugal, Italia, República Checa, Estonia y Rumanía han participado activamente en esta preciosa parte de la investigación que tendrá un peso importante a la hora de entender qué tipo de percepción tiene la gente sobre una tecnología cada vez más disruptiva. . 

Cámaras de video, drones, monitoreo en línea ahora son parte de la vida cotidiana. Pero, ¿son estas tecnologías las que incomodan a los ciudadanos? O, por el contrario, ¿se sienten más seguros cuando se utilizan estas tecnologías? ¿Y el hecho de que la policía pueda usarlos representa una ventaja o una desventaja si se piensa en la privacidad?

Las preguntas fueron dirigidas a los participantes que pudieron así explicar sus sentimientos, expresando también dudas y posibles perplejidades sobre un uso de la Inteligencia Artificial que puede no estar exento de cuestiones críticas. 

Los datos que surgieron del bloque de entrevistas en italiano realizadas entre los mayores de 65 años destacaron algunos aspectos interesantes. Es decir, existen diferentes matices en la percepción que tienen las personas con respecto a la Inteligencia Artificial que utilizan los Cuerpos Policiales. Pasamos de los que confían y confiarían ciegamente incluso en el caso de un uso más “riguroso” de esta tecnología, a los que en cambio albergan más de una perplejidad y plantean términos decididamente fuertes como el de escenario policial. Porque confiaría en la policía, sí, pero con cautela. 

Y de nuevo, están aquellos que ya se sienten molestos por cierto tipo de interferencia en la vida cotidiana (videovigilancia, monitoreo en línea) y, en cambio, aquellos que se sienten de alguna manera más seguros precisamente porque son "espiados". 

Los datos, recopilados nación por nación, serán analizados y procesados ​​por CENTRIC y difundidos por EUROPOL, la Oficina Europea de Policía, socio del proyecto y responsable de la difusión de los resultados de investigación obtenidos dentro de AIDA.

El tema de la predicción del crimen es, por tanto, más actual que nunca, pero aún queda mucho por trabajar en esta dirección. Con todo respeto a los fans de "Minority Report" que probablemente tendrán que esperar un poco más antes de ver la materialización de una plataforma al estilo "Precrime".

1 El artículo científico (PS Bayerl, B. Akhgar, E. La Mattina, B. Pirillo, I.Cotoi, D. Ariu, M.Mauri, J. Garcìa, D. Kavallieros, A. Kardara, K. Karagiorgou, "Estrategias para contrarrestar la inteligencia artificial en la aplicación de la ley: comparación entre países de ciudadanos en Grecia, Italia y España") se publicará en el circuito de Springer como acta de la conferencia.