Niveles de Riesgo en la Ley de IA de la UE
La Ley de Inteligencia Artificial de la UE clasifica los sistemas de IA en varias categorías de riesgo, estableciendo un marco normativo que varía en rigor y requisitos en función del potencial de daño que pueden representar para los usuarios y la sociedad en general.
1. Riesgo Inaceptable: En esta categoría se incluyen los sistemas de IA que se consideran una amenaza directa para la seguridad o los derechos fundamentales de las personas. Estos serán prohibidos por su naturaleza intrínsecamente peligrosa. Ejemplos incluyen:
A. Manipulación Cognitiva: Juguetes activados por voz diseñados para influir en el comportamiento de los niños, incitándoles a actuar de manera perjudicial.
B. Puntuación Social: Sistemas que clasifican a las personas basándose en su comportamiento, situación socioeconómica o características personales, lo cual puede conducir a discriminación y exclusión social.
C. Reconocimiento Facial: El uso de sistemas de identificación biométrica en tiempo real y a distancia se prohíbe, con excepciones limitadas, como su uso posterior para la investigación de delitos graves y con aprobación judicial previa.
2 Alto Riesgo: Los sistemas de IA que pueden tener un impacto negativo significativo en la seguridad personal o en los derechos fundamentales se etiquetan como de alto riesgo y se someten a una regulación estricta. Se dividen en dos subcategorías:
A. IA en Productos Regulados: Sistemas de IA integrados en juguetes, aviación, automoción, dispositivos médicos y ascensores, que deben cumplir con la legislación de seguridad de productos de la UE.
B. IA en Sectores Específicos: Sistemas de IA utilizados en áreas críticas como:
- Identificación y categorización biométrica de personas.
- Administración de infraestructuras críticas.
- Educación y formación profesional.
- Empleo y gestión laboral.
- Acceso a servicios esenciales privados y públicos.
- Aplicación de la ley.
- Gestión de la migración y control de fronteras.
- Asistencia en la interpretación jurídica y aplicación de la ley.
Todos estos sistemas deben ser evaluados exhaustivamente antes de su lanzamiento al mercado y de manera continua durante su ciclo de vida.
3. IA Generativa: Esta categoría incluye sistemas como ChatGPT, que deben adherirse a requisitos de transparencia específicos, tales como:
- Revelar cuando el contenido ha sido generado por IA.
- Prevenir la generación de contenidos ilegales.
- Publicar información sobre los datos protegidos por derechos de autor utilizados en su entrenamiento.
4. Riesgo Limitado: Los sistemas de IA que presentan un riesgo menor deben cumplir con requisitos de transparencia básicos para informar a los usuarios de que están interactuando con la IA. Esto permite que los usuarios tomen decisiones informadas. Incluye sistemas que generan o manipulan contenido de imagen, audio o vídeo, como los deepfakes.
Próximos Pasos
Tras la adopción de una posición negociadora por parte del Parlamento Europeo el 14 de junio de 2023, se procederá a las conversaciones en el Consejo de la UE con el objetivo de alcanzar un acuerdo sobre la ley a finales de este año.
Esta estructura detallada ofrece una comprensión profunda de cómo la Ley de IA de la UE clasifica y regula los sistemas de IA, proporcionando ejemplos específicos que ilustran los tipos de aplicaciones que caen en cada nivel de riesgo. Es esencial para los desarrolladores y usuarios de IA en la UE comprender estas clasificaciones para garantizar la conformidad y promover el uso ético de la IA.