Prepárate para el EU AI Act Con nuestras evaluaciones de Conformidad Regulatoria

¿Qué es el EU AI Act?
El EU AI Act es un marco regulatorio que rige el desarrollo, comercialización y uso de sistemas de inteligencia artificial en la Unión Europea. Su objetivo principal es garantizar que la IA opere de manera segura y ética, equilibrando la protección de los derechos fundamentales con la promoción de la innovación.
La normativa clasifica los sistemas de IA según su nivel de riesgo y establece obligaciones en función de ello. Por ejemplo, las aplicaciones de alto riesgo, como los sistemas de diagnóstico médico o monitoreo del rendimiento laboral, requieren que los proveedores implementen un sistema de gestión de riesgos. La aplicación de esta ley estará a cargo de reguladores nacionales, que podrán variar según el país.
¿Cuáles son los cuatro niveles de riesgo del EU AI Act?
La Ley de IA de la UE clasifica los sistemas de IA en cuatro niveles de riesgo diferentes, cada uno con requisitos regulatorios específicos.
1 Riesgo inaceptable
Riesgo inaceptable
Estos sistemas están totalmente prohibidos debido a los riesgos extremos que presentan para la seguridad pública y los derechos de los ciudadanos. Entre ellos se encuentran la manipulación subliminal para alterar el comportamiento, la puntuación social por parte de las autoridades públicas y la identificación biométrica remota en tiempo real en espacios públicos.
2 Alto riesgo
Alto riesgo
Estos sistemas pueden formar parte de productos sujetos a la legislación de armonización de la UE, lo que significa que ya cumplen con estrictos estándares de seguridad y calidad europeos. Ejemplos de ello son los sistemas integrados en dispositivos médicos y automóviles. También pueden ser productos críticos por sí mismos, como un sistema de IA utilizado para determinar puntuaciones de crédito. Las aplicaciones de IA de alto riesgo incluyen aquellas en infraestructuras críticas (agua, gas, electricidad), educación, empleo, gestión de trabajadores, administración judicial, servicios públicos y evaluación de solvencia crediticia.
3 Riesgo limitado
Riesgo limitado
Los proveedores y desarrolladores de IA de riesgo limitado deben implementar medidas de transparencia, como notificar a los usuarios cuando están interactuando con un sistema de IA en lugar de con un humano (por ejemplo en los chatbots).
4 Riesgo mínimo o nulo
Riesgo mínimo o nulo
Todos los demás sistemas de IA que no encajan en las categorías anteriores no están sujetos a requisitos específicos bajo la Ley de IA, aunque los proveedores pueden optar por adoptar códigos de conducta voluntarios para mejorar la seguridad y la transparencia. Ejemplos incluyen los videojuegos impulsados por IA y los filtros de spam. Sin embargo, a medida que la tecnología de IA evoluciona, estas aplicaciones de riesgo mínimo podrían ser revisadas y requerir medidas adicionales de transparencia.
¿Cuáles son las sanciones por incumplimiento?
La gravedad de la sanción depende del tipo de infracción:
Prácticas de IA prohibidas
Hasta 35 millones de euros o el 7% de los ingresos globales
Obligaciones de IA de alto riesgo
Hasta 15 millones de euros o el 3% de los ingresos globales
Información falsa o engañosa
¿Cuál es la aplicabilidad de la Ley de IA de la UE?
La Ley de IA se aplica a los sistemas de inteligencia artificial que tengan alguna conexión con la UE, ya sea a través de su desarrollo, uso o presencia en el mercado.
Presencia de un sistema de IA
El Act define un «sistema de IA» como un sistema basado en máquinas que puede analizar entradas y generar salidas, como predicciones o decisiones, con cierta capacidad de adaptación o aprendizaje.
Ejemplos: chatbots, robots autónomos y modelos predictivos en sectores como las finanzas o la salud.
Conexión geográfica con la UE
El AI Act es una regulación de la UE, por lo que su alcance está ligado a la región. Sin embargo, tiene efecto extraterritorial (similar al GDPR), lo que significa que puede aplicarse a empresas y actividades fuera de la UE si tienen una conexión significativa con el mercado europeo. La normativa se aplica a sistemas de IA que:
- Sean desarrollados o utilizados por empresas dentro de la UE,
- Se introduzcan o estén disponibles en el mercado europeo,
- Generen resultados utilizados en la UE,
- O impacten a ciudadanos de la UE.
¿Cómo puede ayudar Zertia?
Evaluación de conformidad
Una evaluación de conformidad es como una auditoría de cumplimiento de IA: garantiza que tu sistema cumpla con los requisitos del EU AI Act. Zertia ofrece una revisión independiente y objetiva, identificando cualquier brecha para que estés completamente preparado para cumplir con la normativa.
Próximamente Organismo Notificado
En Zertia, nos comprometemos a obtener el reconocimiento como Organismo Notificado bajo la Ley de IA de la UE y presentaremos nuestra solicitud en cuanto el proceso esté disponible. Esto nos permitirá ofrecer certificaciones oficiales de conformidad con la Ley de IA de la UE, ayudando a las empresas a demostrar el cumplimiento normativo de sus sistemas de IA de alto riesgo.