UE AI Act (#3). IA de alto riesgo: ¿qué sistemas deben cumplir más requisitos?

Además de prohibir ciertos usos de la inteligencia artificial, la UE AI Act establece una categoría de IA de alto riesgo. Estos sistemas no están prohibidos, pero deben cumplir estrictos requisitos antes de ser utilizados o comercializados en la Unión Europea.
En este artículo, veremos qué se considera IA de alto riesgo, en qué sectores se aplica y qué obligaciones deben cumplir los desarrolladores y proveedores.
¿Qué es la IA de alto riesgo?
Se consideran sistemas de IA de alto riesgo aquellos que pueden afectar la seguridad, los derechos fundamentales o el bienestar de las personas.
La normativa identifica dos grandes grupos de IA de alto riesgo:
1. IA que forma parte de productos regulados
- IA integrada en dispositivos médicos, aviones, automóviles o infraestructuras críticas.
- Estos productos ya están sujetos a regulación en la UE (como el Reglamento de Dispositivos Médicos).
2. IA en áreas sensibles con impacto social
- Aplicaciones en sanidad, empleo, educación, seguridad, justicia y migración.
- Ejemplo: Sistemas de diagnóstico médico, software de selección de personal o IA utilizada por la policía.
Áreas en las que la IA se considera de alto riesgo
La UE ha definido una lista de sectores en los que la IA debe cumplir normas estrictas, incluyendo:
Sector | Ejemplo de IA de alto riesgo |
---|---|
Sanidad | Diagnóstico médico asistido por IA, robots quirúrgicos. |
Educación | Sistemas de evaluación automatizada de estudiantes. |
Empleo | Software de selección de candidatos basado en IA. |
Seguridad y justicia | Algoritmos para evaluar riesgo de reincidencia criminal. |
Fuerzas del orden | IA para analizar patrones de comportamiento sospechoso. |
Infraestructuras críticas | IA para gestión de redes eléctricas o transporte. |
Requisitos para la IA de alto riesgo
Cualquier sistema clasificado como IA de alto riesgo debe cumplir estas obligaciones antes de salir al mercado:
- Gestión de riesgos → Evaluar y mitigar posibles problemas en el diseño del sistema.
- Calidad de los datos → Usar datos representativos y evitar sesgos que puedan generar discriminación.
- Transparencia → Informar claramente a los usuarios de que están interactuando con IA.
- Supervisión humana → Garantizar que las decisiones críticas no sean completamente automatizadas.
- Seguridad y robustez → Proteger el sistema contra ciberataques y errores.
- Registro y documentación → Mantener registros de cómo funciona la IA y las decisiones que toma.
Ejemplo: Un software de evaluación de currículums debe garantizar que no discrimina por género, edad o etnia, y debe permitir que un humano revise las decisiones automatizadas.
¿Qué pasa si una empresa no cumple con estas reglas?
Si una empresa o institución utiliza IA de alto riesgo sin cumplir con estos requisitos, puede enfrentarse a sanciones severas.
- Multas de hasta 35 millones de euros o el 7% del volumen de negocio global.
- Retirada de la IA del mercado y prohibición de uso en la UE.
Para evitar esto, las empresas deben asegurarse de que su IA cumple con la normativa antes de su lanzamiento.
La IA de alto riesgo está permitida en la UE, pero debe cumplir requisitos estrictos para garantizar la seguridad y los derechos de los ciudadanos.
Referencias bibliográficas
-
Comisión Europea (2021). Proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). EUR-Lex.
Disponible en: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206 -
Ministerio de Asuntos Económicos y Transformación Digital (2022). Resumen detallado del Reglamento Europeo de Inteligencia Artificial.
Disponible en el documento: https://avance.digital.gob.es/sandbox-IA/Paginas/reglamento-IA.aspx -
Comisión Europea (2024). Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo de la Unión Europea sobre Inteligencia Artificial. EUR-Lex.
Disponible en: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:32024R1689 -
Análisis actualizado sobre la Ley de Inteligencia Artificial de la UE (2024).
Fuente en el documento: https://www.eca.europa.eu/es/publications?ref=SR-2024-08 -
Sistema de gestión de riesgos en la Ley de Inteligencia Artificial de la UE.
Fuente en el documento: https://artificialintelligenceact.eu/es/article/9/