Cómo regulará la AI Act la Inteligencia Artificial en la UE y qué impacto tendrá

25/01/24

"Cuando se anuncian los resultados, los ojos de Lee Sedol se llenan de lágrimas. AlphaGo, una inteligencia artificial (IA) desarrollada por DeepMind de Google, acaba de lograr una victoria por 4 a 1 en el juego de Go. Estamos en marzo de 2016. Dos décadas antes, el gran maestro de ajedrez Garry Kasparov había perdido ante la máquina Deep Blue, y ahora un programa de computadora había ganado contra el decimoctavo campeón mundial Lee Sedol en un juego complejo que se creía que solo lo jugaban humanos, usando su intuición y pensamiento estratégico. La computadora ganó no siguiendo las reglas que le dieron los programadores, sino mediante el aprendizaje automático basado en millones de juegos de Go anteriores y jugando contra sí misma. En este caso, los programadores preparan los conjuntos de datos y crean los algoritmos, pero no pueden saber qué movimientos propondrá el programa. La inteligencia artificial aprende por sí sola. Después de una serie de movimientos inusuales y sorprendentes, Lee tuvo que resignarse."

Este extracto del libro "Ética de la IA" de Mark Coeckelbergh, filósofo y tecnólogo belga, recuerda de forma explícita y sugerente el encuentro entre el hombre y sus límites. Después de un cierto número de victorias obtenidas por Sedol, gana AlphaGo. No es la primera vez que esto sucede (el ejemplo citado es el de Deep Blue) y, sin embargo, después de una serie de movimientos insólitos y sorprendentes, AlphaGo hace aquello para lo que fue diseñado: es la primera vez que sucede en Por aquí.

Y es aquí donde captamos la síntesis del fenómeno de la Inteligencia Artificial (IA): es la primera vez que sucede de esta manera.

Todos los medios han hablado de la carrera hacia la Inteligencia Artificial, especialmente después del "explosión”ChatGPT. Hemos hablado de ello muchas veces también en el contexto de la Defensa Online, destacando el impulso evolutivo sin precedentes que están encontrando estas soluciones en su historia.

Sin embargo, existe un fenómeno paralelo, inferencial y relacionado con el primero, que corre el riesgo de pasar desapercibido. El de la estandarización de estos sistemas..

Regular la Inteligencia Artificial no es en absoluto un desafío sencillo, y sin entrar en detalles técnicos (ni en los numerosos fermentos legislativos que se están produciendo en los países asiáticos y en Estados Unidos sobre el tema) podemos decir que la Unión Europea, después de años de trabajo previo, ha puesto En diciembre de 2023 estará vigente una versión semidefinitiva de lo que representará, una vez finalizadas las discusiones técnicas y el procedimiento de aprobación comunitaria, el primer Reglamento europeo sobre Inteligencia Artificial: el AI ACT.

¿Qué es esto?

La "AI Act" representa uno de los primeros y más estructurados documentos legislativos a nivel global destinado a regular el uso de la Inteligencia Artificial y mitigar los potenciales riesgos asociados. El texto final de la ley aún deberá ser elaborado por profesionales competentes y sometido a una revisión final. Se espera que, si todo transcurre sin obstáculos, la entrada en vigor se produzca en los próximos dos años.

El Reglamento se centra principalmente en salvaguardar los derechos y libertades individuales, estableciendo la obligación para las empresas que desarrollan soluciones de IA de demostrar que sus productos y su proceso de desarrollo no ponen en riesgo a las personas ni comprometen su integridad. Este acto regulatorio cubre varios ámbitos de aplicación de la Inteligencia Artificial, pero algunos de los puntos principales incluyen restricciones a los sistemas de identificación biométrica y la obligación de transparencia sobre los sistemas tecnológicos utilizados para chatterbot como ChatGPT.

Un elemento fundamental del Reglamento es el sistema de clasificación de riesgos, ya adoptado en otras normas similares (una sobre todo el RGPD), que identifica determinados sistemas de IA con características particulares como de "alto riesgo", sometiéndolos a rigurosas acciones de cumplimiento. Esta disposición constituirá un desafío importante para las empresas e instituciones involucradas en la creación, puesta en servicio o uso de dichos sistemas.

Los ejemplos de sistemas de alto riesgo incluidos en el Reglamento incluyen aquellos utilizados en sectores cruciales como la asistencia sanitaria, el transporte, la justicia y la seguridad pública. Para tales sistemas, se requerirán altos estándares en términos de seguridad, transparencia y confiabilidad. En particular, para los sistemas de alto riesgo, la Ley de IA establece una serie de requisitos estrictos, que incluyen:

  • Evaluación de riesgos y cumplimiento: Los sistemas de IA deben diseñarse y desarrollarse teniendo en cuenta una evaluación de riesgos exhaustiva. Esto incluye implementar medidas para gestionar y minimizar estos riesgos.
  • Transparencia e Información al Usuario: Los sistemas de IA deben ser transparentes. Los usuarios deben ser informados cuando interactúan con un sistema de IA y recibir información suficiente sobre cómo funciona el sistema y toma decisiones.
  • Supervisión humana: La Ley de IA enfatiza la importancia de la supervisión humana en los sistemas de IA, especialmente los de alto riesgo. Esto podría tener implicaciones importantes para el uso militar de la IA, donde la toma de decisiones automatizada en situaciones críticas puede ser limitada o requerir supervisión humana explícita.
  • Calidad de datos: La Ley de IA exige que los datos utilizados por los sistemas de IA se gestionen para garantizar la más alta calidad, reduciendo el riesgo de sesgo y garantizando que las decisiones tomadas sean precisas y confiables.
  • Seguridad y Robustez: Los sistemas de IA deben ser seguros y robustos contra intentos de manipulación o uso indebido (un aspecto particularmente crítico, por decirlo suavemente, en el contexto militar).

Otra exigencia de particular interés es la que se introduce desde una perspectiva ética: la Ley de IA exige que se realice una verdadera "evaluación ética" (Fundamental Rights Impact Assessment, FRIA) para los sistemas de alto riesgo. También existen numerosas interacciones con el tema de la seguridad del procesamiento de datos personales, al que el texto del Reglamento hace referencia varias veces en lo que respecta al análisis de riesgos e impactos sobre las personas físicas involucradas en el funcionamiento de estos sistemas y sobre los riesgos para sus datos.

Por otra parte, Hay algunas prácticas prohibidas.. Por ejemplo, se prohibirá el uso de IA para el análisis de datos biométricos sensibles, como el reconocimiento de personas en función de características como la orientación sexual, la etnia, la religión o las ideas políticas. Esta disposición tiene como objetivo prevenir la discriminación y el abuso. También se prohibirá el uso indiscriminado de imágenes tomadas de Internet o de cámaras de circuito cerrado de televisión para entrenar sistemas de reconocimiento facial, con el fin de proteger la privacidad de las personas y evitar la vigilancia masiva.

Los organismos encargados de hacer cumplir la ley estarán autorizados a utilizar sistemas de reconocimiento biométrico (sobre los cuales se libró una importante batalla dentro de la UE, después del caso Clearview) sólo en circunstancias excepcionales, como la amenaza de un ataque terrorista inminente o la búsqueda de personas sospechosas de delitos graves o víctimas de delitos graves.

La Ley de IA prohíbe el uso de IA para reconocer las emociones de las personas en los lugares de trabajo y las escuelas, con el fin de preservar la libertad emocional de las personas. Además, prohíbe la práctica de puntuación social, o el uso de IA para asignar puntuaciones basadas en el comportamiento o las características de las personas, lo que resulta en restricciones o concesión de derechos civiles. Esta medida tiene como objetivo evitar la manipulación del comportamiento de las personas de forma explícita o implícita.

El Reglamento establece que los sistemas de IA de alto impacto, con altas capacidades de computación como el GPT-4 de OpenAI, deben garantizar la transparencia en el proceso de formación y compartir la documentación técnica de los materiales utilizados antes de su comercialización. Estos modelos serán necesarios para hacer reconocibles los contenidos que generan, con el fin de prevenir el fraude y la desinformación y proteger los derechos de autor de las obras creadas.

En materia de sanciones, las empresas que no cumplan estas normas podrían estar sujetas a multas de hasta el 7% de su facturación global.

Lo que sin duda resulta muy interesante es lo previsto en el texto actual sobre los usos de los sistemas de Inteligencia Artificial en el ámbito militar.

De hecho, en el texto se prevé expresamente (artículo 2, apartado 3) que, en términos de impacto en el sector militar, la Ley sobre IA no se aplica directamente a los sistemas de inteligencia artificial desarrollados o utilizados con fines militares. Sin embargo, los estándares y regulaciones establecidos por la Ley de IA pueden influir indirectamente en cómo los estados miembros de la UE y las empresas que operan en Europa desarrollan e implementan sistemas de IA para aplicaciones militares. Esto podría incluir aspectos como la transparencia, la supervisión humana y la seguridad del sistema. Además, es posible que la Ley de IA pueda servir como modelo para futuras regulaciones (o estándares militares) específicos, tanto a nivel de la UE como global.

La creciente integración de la inteligencia artificial en la defensa requiere un marco regulatorio que equilibre la innovación con la responsabilidad ética y la seguridad. La colaboración entre países, instituciones e industrias será clave para garantizar que el uso militar de la IA se desarrolle de manera responsable y de acuerdo con los principios internacionales del derecho humanitario.

La Ley de IA pasará por varias fases de aplicación, la más masiva de las cuales se espera de manera realista para la segunda mitad de 2026. Es necesario prepararse significativamente en el diseño de los sistemas actualmente en desarrollo, para poder diseñar una IA que cumpla con los requisitos propuestos por la Unión Europea en este sentido.

Andrea Puligheddu (Abogada y experta en derecho y nuevas tecnologías)

Nota: el artículo tiene necesariamente un sesgo informativo y no profundiza en las numerosas (y complejas) cuestiones que están sobre la mesa en relación con el desarrollo y la aplicación de la AI Act. Para una discusión más profunda sobre el tema, escriba a la carne: Puligheddu@studiolegaleprivacy.com

(www.studiolegaleprivacy.com)