Ir al contenido
  • AUDITORÍA Y CERTIFICACIÓN
    • ISO 42001
    • ISO 27001
    • ISO 27701
    • EU AI ACT
  • FORMACIÓN
    • ISO 42001 AUDITOR LÍDER
    • EU AI ACT
  • PARTNERS
    • RED GLOBAL
    • COMUNIDAD DE AUDITORES
  • RECURSOS
  • NOSOTROS
  • AUDITORÍA Y CERTIFICACIÓN
    • ISO 42001
    • ISO 27001
    • ISO 27701
    • EU AI ACT
  • FORMACIÓN
    • ISO 42001 AUDITOR LÍDER
    • EU AI ACT
  • PARTNERS
    • RED GLOBAL
    • COMUNIDAD DE AUDITORES
  • RECURSOS
  • NOSOTROS
    • English
Contáctanos
    • English
  • AUDITORÍA Y CERTIFICACIÓN
    • ISO 42001
    • ISO 27001
    • ISO 27701
    • EU AI ACT
  • FORMACIÓN
    • ISO 42001 AUDITOR LÍDER
    • EU AI ACT
  • PARTNERS
    • RED GLOBAL
    • COMUNIDAD DE AUDITORES
  • RECURSOS
  • NOSOTROS
Contáctanos
octubre 29, 2024

La Ley de IA de la UE: Una Visión Integral

Descubre el marco de la Ley de IA de la UE que regula el desarrollo de IA, las categorías de riesgo, las obligaciones de los actores y los plazos de cumplimiento para un uso responsable de la IA.

Comparte:

Introducción

La Ley de Inteligencia Artificial (IA) de la Unión Europea, promulgada en junio de 2024, representa un marco legal integral que regula el desarrollo, la implementación y el uso de la IA en toda la UE. Como la primera normativa de este tipo a nivel mundial, la Ley tiene como objetivo gestionar los riesgos de la IA, fomentando la innovación y asegurando la protección de los derechos fundamentales. Establece obligaciones específicas en función de los niveles de riesgo, detallando los requisitos para diferentes actores, incluidos desarrolladores, proveedores y usuarios de sistemas de IA.

Actores: ¿A Quién Afecta?

La Ley de IA de la UE define varios roles clave:

Proveedores: Entidades o personas que desarrollan o lanzan al mercado un sistema o modelo de IA. Los proveedores pueden estar ubicados dentro o fuera de la UE, pero están cubiertos por la normativa si sus sistemas de IA se utilizan dentro de la UE.

Desarrolladores: Organizaciones o personas que utilizan sistemas de IA bajo su control, principalmente con fines profesionales, y son responsables de cumplir con requisitos operativos específicos y medidas de supervisión para garantizar la seguridad y el cumplimiento.

Importadores y Distribuidores: Estos actores introducen sistemas de IA desde fuera de la UE o actúan como intermediarios dentro de la UE. Tienen la responsabilidad de verificar el cumplimiento y pueden enfrentar responsabilidades similares a las de los proveedores si los sistemas de IA no cumplen con la normativa.

Fabricantes de Productos: Las empresas que integran sistemas de IA de alto riesgo como partes esenciales de otros productos están sujetas a las obligaciones de los proveedores si comercializan los productos bajo su propio nombre.

Niveles de Riesgo en la Ley de IA

La Ley clasifica los sistemas de IA en cuatro categorías de riesgo, cada una con requisitos regulatorios específicos:

Riesgo Inaceptable: Los sistemas de IA que representan un riesgo inaceptable están prohibidos de forma absoluta. Esto incluye aplicaciones de IA que podrían amenazar los valores y derechos fundamentales de la UE. Ejemplos de esto son los sistemas de puntuación social (como aquellos que evalúan la confiabilidad de las personas en función de su comportamiento) y la IA de reconocimiento de emociones en entornos sensibles como lugares de trabajo e instituciones educativas.

Sistemas de IA de Alto Riesgo: La Ley regula en gran medida los sistemas de IA de alto riesgo debido a su potencial impacto en la seguridad y los derechos fundamentales. Los sistemas de IA de alto riesgo incluyen aquellos utilizados como componentes de seguridad o integrados en productos regulados por leyes de la UE enumeradas en el Anexo I, que requieren evaluaciones de conformidad de terceros. Además, las aplicaciones de IA que involucran perfiles o el procesamiento automatizado de datos personales para evaluar características de individuos, como el desempeño laboral, situación económica, salud, intereses o desplazamientos, siempre se clasifican como de alto riesgo. Ejemplos de esto son la identificación biométrica en espacios públicos y los sistemas de IA utilizados en procesos de selección de personal o de calificación crediticia.

Sistemas de IA de Riesgo Limitado: Estos sistemas, aunque de menor riesgo, aún están sujetos a requisitos específicos de transparencia para proteger a los usuarios. Los proveedores y usuarios de IA de riesgo limitado deben asegurar que los usuarios estén informados de que están interactuando con IA y no con una persona. Esto aplica a aplicaciones como chatbots y tecnología de deepfake, donde la transparencia es crucial para una interacción informada.

Riesgo Mínimo: La IA de riesgo mínimo abarca la mayoría de las aplicaciones de IA disponibles en el mercado de la UE, que actualmente no enfrentan obligaciones adicionales bajo la Ley. Esta categoría cubre aplicaciones como videojuegos impulsados por IA, filtros de spam y otros sistemas de IA no críticos. Sin embargo, a medida que la IA evoluciona, especialmente con los avances en IA generativa, estas aplicaciones podrían estar sujetas a una revisión adicional o medidas de transparencia.

IA de Propósito General (IA-PG)

Los sistemas de IA de propósito general, especialmente aquellos con amplia aplicabilidad o posibles impactos sistémicos, también están regulados. Los proveedores de modelos de IA-PG, como grandes modelos de lenguaje o marcos de aprendizaje automático, deben garantizar la transparencia y el cumplimiento si los modelos pueden dar lugar a aplicaciones de alto riesgo. Los proveedores de IA-PG son responsables de la documentación, transparencia y gestión de riesgos cuando estos modelos se utilizan con fines de alto riesgo dentro de la UE.

Los proveedores de sistemas de IA de alto riesgo deben asegurar que sus productos cumplan con requisitos extensivos, que incluyen:

Gestión de Riesgos y Gobernanza de Datos: Establecer un sistema de gestión de riesgos y asegurar altos estándares para los datos utilizados en el entrenamiento y prueba de modelos de IA.

Documentación Técnica y Evaluaciones de Conformidad: Crear documentación que detalle cómo funcionan los sistemas de IA y su cumplimiento con los estándares de la Ley. Los proveedores pueden necesitar someterse a evaluaciones de conformidad de terceros dependiendo de la sensibilidad de la aplicación.

Supervisión Humana y Robustez: Los proveedores deben implementar mecanismos que faciliten la intervención humana y aseguren la robustez frente a manipulaciones y ataques adversos.

Monitoreo Post-Mercado: Establecer procedimientos de monitoreo continuo después de la implementación para abordar riesgos imprevistos.

Obligaciones de Reporte: Los proveedores deben reportar incidentes graves o fallos que puedan afectar derechos fundamentales o la seguridad a las autoridades relevantes dentro de los plazos establecidos.

Obligaciones para Desarrolladores de Sistemas de IA de Alto Riesgo

Los desarrolladores tienen un conjunto de responsabilidades destinadas a garantizar el uso seguro y conforme de los sistemas de IA de alto riesgo:

Mitigación de Riesgos: Los desarrolladores deben identificar y mitigar los riesgos asociados con los sistemas de IA, asegurando que la supervisión humana esté integrada en los procedimientos operativos.

Transparencia y Comunicación: Se requiere que los desarrolladores proporcionen información clara sobre el funcionamiento del sistema de IA a los usuarios y personas afectadas, manteniendo canales accesibles para consultas o quejas.

Documentación y Registro: Los desarrolladores deben mantener registros actualizados del historial operativo del sistema de IA, incluidos registros y documentación relevante, durante al menos seis meses para facilitar la responsabilidad.

Evaluaciones de Impacto: Los desarrolladores deben realizar evaluaciones de impacto regulares para evaluar los riesgos a los derechos fundamentales y notificar a la autoridad de vigilancia del mercado de la UE sobre cualquier riesgo identificado.

Calendario de Plazos Clave de la Ley de IA de la UE

La implementación escalonada de la Ley de IA de la UE establece hitos de cumplimiento claros para los actores involucrados, con requisitos específicos a cumplir en cada etapa.

  • 1 de agosto de 2024 – Entra en vigor la Ley de IA de la UE: La Ley se convierte oficialmente en ley. Las empresas deben comenzar a alinear sus sistemas de IA con los requisitos regulatorios y prepararse para las obligaciones de cumplimiento.
  • 2 de febrero de 2025 – Prohibición de Sistemas de IA de Riesgo Inaceptable: Los sistemas de IA clasificados como de “riesgo inaceptable”, como la puntuación social y ciertas aplicaciones biométricas en espacios públicos, están prohibidos en la UE. La falta de cumplimiento puede resultar en sanciones sustanciales.
  • 2 de agosto de 2025 – Inicio de Requisitos para IA de Propósito General y Revisión de la Comisión: Las obligaciones de cumplimiento para proveedores de modelos de IA de propósito general (IA-PG) entran en vigor, cubriendo transparencia, gobernanza de datos y supervisión humana para mitigar aplicaciones de alto riesgo.
  • 2 de febrero de 2026 – Obligaciones de Monitoreo Post-Mercado para IA de Alto Riesgo: Las obligaciones de monitoreo post-mercado entran en vigor para los sistemas de IA de alto riesgo, obligando a los desarrolladores a realizar un seguimiento y a informar sobre la seguridad, rendimiento y cumplimiento del sistema.
  • 2 de agosto de 2026 – Obligaciones Clave de Cumplimiento para Sistemas de IA de Alto Riesgo: Comienzan a aplicarse obligaciones para los sistemas de IA de alto riesgo, incluyendo requisitos de documentación, gestión de riesgos, gobernanza de datos y ciberseguridad.
  • 2 de agosto de 2027 – Fecha Límite de Cumplimiento para IA de Seguridad Crítica en Productos: Los sistemas de IA de alto riesgo integrados en productos de seguridad crítica, como dispositivos médicos y juguetes, deben cumplir con requisitos adicionales, incluidas evaluaciones de conformidad de terceros.
  • Finales de 2030 – Cumplimiento para Sistemas de TI a Gran Escala bajo la Ley de la UE: Los sistemas de IA utilizados en sistemas de TI a gran escala en la UE, como el Sistema de Información de Schengen, deben cumplir con las obligaciones de la Ley de IA de la UE.

Sanciones por Incumplimiento

La Ley impone sanciones estrictas por incumplimiento, similares a las del Reglamento General de Protección de Datos (GDPR):

Multas por Incumplimiento en Sistemas de Alto Riesgo: Las multas pueden alcanzar hasta 30 millones de euros o el 6 % de los ingresos anuales globales del proveedor o desarrollador para infracciones graves.

Multas Menores para Fallos de Cumplimiento Limitado: Fallos de bajo riesgo, como falta de transparencia o de mantenimiento de registros, pueden incurrir en multas de hasta 20 millones de euros o el 4 % de los ingresos globales.

Conclusión

La Ley de IA de la UE establece un marco normativo integral que sienta un precedente para la gobernanza de la IA a nivel mundial. Al imponer estándares proporcionales a los riesgos asociados, la Ley busca equilibrar la innovación con el uso ético y seguro. Las organizaciones que adopten estrategias de cumplimiento proactivas pueden fomentar la confianza y alinearse con las ambiciones digitales de la UE mientras evitan sanciones potenciales y riesgos reputacionales.

Quizás también te interesa

News

Apple y Meta se Desmarcan del Compromiso con la Ley de IA Europea

Más de 100 empresas tecnológicas se han unido al Pacto de la Ley de IA Europea, pero Apple y Meta están ausentes. Descubre los compromisos y las reacciones de la industria.

Articles

La Ley de IA de la UE: Pionera en la Ética de la IA con Códigos de Conducta

La Ley de Inteligencia Artificial de la UE promueve Códigos de Conducta voluntarios, fomentando prácticas responsables y fortaleciendo la confianza en la tecnología, incluso en sistemas de bajo riesgo.

News

Compromiso de la Comisión Europea con una IA Ética: Firma del Convenio Marco del Consejo de Europa

La UE refuerza su compromiso con una IA ética al firmar el Convenio Marco sobre Inteligencia Artificial del Consejo de Europa, alineado con la Ley de IA y los estándares internacionales sobre derechos humanos y gobernanza de IA.

Articles

Protegiendo a la Sociedad de la IA de Alto Riesgo: Una Mirada al EU AI Act

Explora cómo la Ley de IA de la UE establece un marco regulatorio para garantizar la seguridad y responsabilidad en el uso de sistemas de IA de alto riesgo, incluyendo el monitoreo post-mercado y el registro de datos.

Contáctanos

Cuéntanos cómo podemos ayudarte completando este breve formulario.

Zertia
  • Nosotros
  • Contáctanos
  • Recursos
Servicios
  • ISO 42001
  • ISO 27001
  • ISO 27701
  • EU AI Act
Partners
  • Red Global
  • Comunidad de auditores
Información
  • Procedimientos de certificación
  • Política de imparcialidad
  • Medios
Redes Sociales
  • LinkedIn
  • Youtube
Membresías
  • IAPP
  • INCITS
  • EU AI Pact
  • AI & Partners
  • © 2025 Zertia | Todos los derechos reservados
  • Aviso legal
  • Términos y condiciones de uso
  • Política de privacidad
  • Política de cookies
We Care About Your Privacy

We use our own and third-party cookies to compile statistics on the use of the website in order to identify faults and improve the content and configuration of the website. We also use own and third party cookies to remember some options you have chosen (language, for example) and to show you advertising related to your preferences, based on a profile developed from your browsing habits (for example, from the web pages visited).

Functional Siempre activo
The technical storage or access is strictly necessary for the legitimate purpose of enabling the use of a specific service explicitly requested by the subscriber or user, or for the sole purpose of carrying out the transmission of a communication over an electronic communications network.
Preferences
The technical storage or access is necessary for the legitimate purpose of storing preferences that are not requested by the subscriber or user.
Statistics
The technical storage or access that is used exclusively for statistical purposes. The technical storage or access that is used exclusively for anonymous statistical purposes. Without a subpoena, voluntary compliance on the part of your Internet Service Provider, or additional records from a third party, information stored or retrieved for this purpose alone cannot usually be used to identify you.
3rd Party Cookies
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc. Keeping this cookie enabled helps us to improve our website.
Administrar opciones Gestionar los servicios Gestionar {vendor_count} proveedores Leer más sobre estos propósitos
Show Purposes
{title} {title} {title}
We Care About Your Privacy
To provide the best experiences, we use technologies like cookies to store and/or access device information. Consenting to these technologies will allow us to process data such as browsing behavior or unique IDs on this site. Not consenting or withdrawing consent, may adversely affect certain features and functions.
Functional Siempre activo
The technical storage or access is strictly necessary for the legitimate purpose of enabling the use of a specific service explicitly requested by the subscriber or user, or for the sole purpose of carrying out the transmission of a communication over an electronic communications network.
Preferences
The technical storage or access is necessary for the legitimate purpose of storing preferences that are not requested by the subscriber or user.
Statistics
The technical storage or access that is used exclusively for statistical purposes. The technical storage or access that is used exclusively for anonymous statistical purposes. Without a subpoena, voluntary compliance on the part of your Internet Service Provider, or additional records from a third party, information stored or retrieved for this purpose alone cannot usually be used to identify you.
3rd Party Cookies
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc. Keeping this cookie enabled helps us to improve our website.
Administrar opciones Gestionar los servicios Gestionar {vendor_count} proveedores Leer más sobre estos propósitos
Show Purposes
{title} {title} {title}
Gracias por contactarnos
Tu mensaje se ha enviado correctamente, nos pondremos en contacto contigo lo antes posible.