INTELIGENCIA ARTIFICIAL
Europa aprueba la primera Ley de IA a favor de la seguridad y la transparencia
Marta Flores
Europa ha aprobado la primera Ley de IA del mundo a favor de la seguridad y la transparencia con la que pretende regular su comercialización, uso y desarrollo. Han sido muchos los expertos que han pedido que se regule la Inteligencia Artificial por los peligros y riesgos que podría suponer.
De hecho, hace relativamente poco, el propio Sam Altman, director ejecutivo de OpenAi, pedía al gobierno de EE.UU que regulase la Inteligencia Artificial. Precisamente su petición se basa en la necesidad imperante de establecer límites y mitigar riesgos de su uso y desarrollo.
Como en otros muchos ámbitos, no está de más establecer un marco legal con bases, usos y límites a según qué cosas. Así, se mantiene todo bajo un paraguas legal que favorezca el control del desarrollo y los usos que se puedan hacer de la IA. Han sido muchas las noticias virales de recreación de voces en canciones, edición de fotos, etc. Hasta se han solucionado «conflictos» con la IA, los conocidos «beef».
En este sentido, la ley cuenta con unas 4.000 enmiendas que el Consejo tiene que valorar, negociar y dar forma. Son muchas para ser un marco de regulación para una herramienta tecnológica que, como otras muchas, está y va a estar en constante cambio y evolución.
No obstante, el marco de regulación jurídica tan demandado desde hace meses, ha llegado a Bruselas y ha sido aprobado. El siguiente paso es que el Consejo negocie hasta que la ley se haga efectiva, lo que se prevé que sucerá a finales de año.
La Inteligencia Artificial puede ser una herramienta con beneficios en muchos ámbitos. Entre ellos, una fabricación más eficiente, una mejor asistencia sanitaria, energía más sostenible, etc. Pero un mal uso de esta tecnología tiene sus riesgos.
Primera Ley de Inteligencia Artificial
Una de las prioridades del Parlamento es que se garantice la seguridad en los sistemas de IA utilizados en la Unión Europea. También la transparencia de éstos, que no sean discriminatorios y que sean respetuosos con el medio ambiente.
Algunos de los países que conforman la Unión Europea ya cuentan con normativas que regulan la IA pero, con esta ley, lo que busca Europa es establecer un marco jurídico común para todos los ciudadanos.
De igual manera con esta ley se abarcan los sistemas de Inteligencia Artificial, los cuales deben ser supervisados por personas y no por máquinas. El objetivo es evitar resultados no deseados y perjudiciales.
Otra de las prioridades del Parlamento Europeo es establecer una definición uniforme y neutra (tecnológicamente hablando) del término «Inteligencia Artificial» y que se pueda aplicar también a futuros sistemas de IA.
Un camino de piedras
Todo el tema que concierne a la Inteligencia Artificial ha sido un camino difícil de andar por ser un tema novedoso y a la vez delicado. Han habido diferentes opiniones, para todos los gustos, de hecho. Que si nos va a quitar el trabajo a las personas, que si no lo va a hacer, etc.
Ya en abril de 2021, la Comisión Europea puso sobre la mesa una propuesta para el primer marco regulador para la IA. Finalmente, con alrededor de 4.000 enmiendas y casi 500 votos a favor, el Parlamento ha dado el pistoletazo de salida a esta ley. El turno ahora es del Consejo, que tendrá que negociar y conversar sobre la forma final de la ley.
La propuesta se basa en que los sistemas de IA se puedan utilizar y aplicar pero que se clasifiquen según el nivel de riesgo que suponga para los usuarios. Esto quiere decir que en función de los diferentes niveles de riesgo implicarán mayor o menor regulación.
Además, en esta propuesto también se ha incluido un marco jurídico para la IA generativa, como es ChatGPT. Ya este chat despertó (y sigue despertando) un gran interés en todo el mundo por su capacidad de generar contenidos.
La Ley de Inteligencia Artificial por niveles
Tanto proveedores como usuarios, la nueva normativa establece ciertas obligaciones atendiendo al riesgo que suponga los sistemas de IA y será necesario evaluar todos. Los niveles de riesgo son: limitado, inaceptable y alto:
Riesgo limitado
Aunque los riesgos de los sistemas de IA sean mínimos, éstos deberán cumplir unos requisitos mínimos de transparencia. El objetivo es que los usuarios, tras utilizar las aplicaciones, puedan tomar decisiones sobre si seguir usándolas o no.
Es decir, el usuario debe ser consciente de cuándo está interactuando con la IA. Aquí se incluyen aquellos sistemas de IA que manipulan contenidos de imagen, audio o vídeo (los llamados deepfakes).
Riesgo inaceptable
Al analizar los sistemas de IA, si son de riesgo inaceptable, se consideran una amenaza para las personas y serán prohibidos:
- Manipulación cognitiva del comportamiento de personas o grupos vulnerables: por ejemplo, juguetes activados por voz que fomenten comportamientos peligrosos en niños.
- Sistemas de identificación biométrica: tanto en tiempo real como a distancia. Por ejemplo, el reconocimiento facial.
- Discriminación o puntuación social: clasificación de personas en función de su nivel económico, características personales o comportamiento.
Riesgo alto
Los sistemas de IA no suponen una amenaza directa para las personas pero si afectan de manera negativa a la seguridad o los derechos fundamentales. Así, los sistemas se van a dividir en dos:
- Sistemas de IA que se utilicen en productos sujetos a la legislación de la UE sobre la seguridad de éstos. Se incluyen automóviles, aviación, juguetes, dispositivos médicos y ascensores.
- Los sistemas que pertenezcan a ciertos ámbitos específicos se verán registrar en una base de datos de la UE. Entre otros, la identificación biométrica de personas físicas, educación, empleo gestión de trabajadores y acceso al autoempleo, gestión de migración y control de fronteras.
ChatGPT también entra en la regulación
La IA generativa, como ChatGPT, tendrá que cumplir ciertos requisistos de transparencia:
- Publicar resúmenes de los datos protegidos por derechos de autor.
- Diseñar el modelo para evitar que genere contenido ilegal.
- Revelar el contenido que haya sido generado por IA.
Así, tras la votación, uno de los eurodiputados declaró: “Europa ha propuesto una respuesta concreta a los riesgos que la IA está empezando a plantear. Queremos que se aproveche el potencial positivo de AI para la creatividad y la productividad, pero también lucharemos para proteger nuestra posición y contrarrestar los peligros.”
Lo más novedoso de la reciente reunión bien podría ser, entre otros, las normativas que prohíben los sistemas de Inteligencia Artificial para discriminar socialmente categorizando usuarios con la identificación biométrica o reconocimiento de sus emociones.
En definitiva, las reglas tienen el objetivo de promover que el desarrollo y uso de la IA sea confiable y esté centrado en proteger los derechos fundamentes y la salud del ser humano. No obstante, ahora toca esperar todo el trabajo que hay por delante para regular algo tan amplio y novedoso y que pueda abarcar futuros cambios de la propia IA.