La Oficina Europea de IA invita a evaluadores expertos a participar en un taller en línea sobre los riesgos sistémicos asociados con los modelos de IA de propósito general. Este evento exclusivo, programado para el 13 de diciembre de 2024, reunirá a líderes en evaluación de IA para perfeccionar metodologías y fomentar la colaboración en el marco del Reglamento de IA de la UE.
Avanza en la Seguridad de la IA a Través de la Evaluación Colaborativa
Este taller es una iniciativa clave de la Oficina Europea de IA para mejorar la seguridad, confiabilidad y responsabilidad de la IA de propósito general. Los participantes compartirán perspectivas, discutirán desafíos y presentarán su experiencia para ayudar a construir marcos sólidos para la evaluación de riesgos sistémicos.
Temas principales a tratar:
- Riesgos CBRN: Amenazas relacionadas con el uso indebido de la IA en riesgos químicos, biológicos, radiológicos y nucleares.
- Ofensiva Cibernética: Mitigación de ataques cibernéticos impulsados por IA y brechas de seguridad.
- Accidentes Mayores: Prevención de interrupciones en infraestructuras críticas o sistemas a gran escala.
- Pérdida de Control: Soluciones para garantizar la supervisión y alineación de sistemas autónomos.
- Discriminación: Prevención de sesgos y resultados injustos generados por la IA.
- Infracciones de Privacidad: Protección de la integridad de los datos y prevención de usos indebidos.
- Desinformación: Combate a la difusión de contenido falso o perjudicial generado por IA.
- Otros Riesgos Sistémicos: Enfrentarse a riesgos que amenazan la salud pública, la democracia y la seguridad.
El taller ofrece una plataforma única para que evaluadores, investigadores y organizaciones contribuyan directamente al desarrollo de mejores prácticas en la gestión de riesgos de la IA.
Envía tu Experiencia
La Oficina Europea de IA invita a los participantes elegibles a enviar resúmenes de trabajos previamente publicados sobre evaluaciones de riesgos sistémicos. Las contribuciones deben abordar uno o más de los temas clave del taller y demostrar un compromiso con el avance de la seguridad de la IA.
Criterios de Elegibilidad:
- Organizaciones registradas o grupos de investigación afiliados a universidades.
- Experiencia demostrada en la evaluación de modelos de IA de propósito general.
Las presentaciones serán evaluadas según:
- Calidad Técnica: Profundidad y rigor de la investigación.
- Relevancia: Alineación con las prioridades del Reglamento de IA de la UE.
- Alineación con la Misión: Contribuciones que apoyen los objetivos de la Oficina Europea de IA.
Fechas Clave
- Fecha Límite de Envío: 8 de diciembre de 2024 (hora límite en cualquier lugar del mundo).
- Notificación de Invitación: 11 de diciembre de 2024.
- Fecha del Taller: 13 de diciembre de 2024, a las 14:00 CET.
Para instrucciones detalladas, consulta las directrices de presentación (PDF).
¿Por Qué Participar en Esta Iniciativa?
Según el Reglamento de IA de la UE, los desarrolladores de modelos de IA de propósito general deben evaluar y mitigar los riesgos, garantizar la ciberseguridad, realizar pruebas adversarias y reportar incidentes. La Oficina Europea de IA se encarga de hacer cumplir estas normas, asegurando el cumplimiento mientras fomenta la innovación.
Participar en este taller te permitirá:
- Impulsar la Gobernanza de la IA: Contribuir al liderazgo europeo en el desarrollo responsable de la IA.
- Compartir Mejores Prácticas: Presentar tu experiencia en la evaluación de riesgos sistémicos.
- Colaborar con Expertos: Conectar con líderes de la industria y la Oficina Europea de IA.
- Fortalecer la Supervisión de la IA: Ayudar a desarrollar un marco confiable para sistemas de IA seguros y éticos.