Classificació de Risc

El Reglamento Europeo de Inteligencia Artificial: Un Nuevo Paradigma Normativo en la Unión Europea

El 1 de agosto de 2024 marcó un punto de inflexión en la regulación tecnológica europea con la entrada en vigor del Reglamento Europeo de Inteligencia Artificial, conocido como AI Act. Este marco normativo, pionero a escala mundial, tiene como objetivo fomentar el desarrollo y la implementación responsables de la inteligencia artificial (IA) en la Unión Europea (UE), abordando los posibles riesgos para la salud, la seguridad y los derechos fundamentales de los ciudadanos.

La entrada en vigor del Reglamento Europeo de Inteligencia Artificial representa un paso decisivo hacia una regulación integral de la IA en la UE. Este marco normativo establece las bases para un desarrollo y uso de la IA que sean seguros, éticos y respetuosos con los derechos fundamentales, posicionando a Europa como líder en la gobernanza responsable de las tecnologías emergentes.

El AI Act establece una clasificación de los sistemas de IA basada en el nivel de riesgo que pueden representar:

  1. Riesgo Inaceptable: Sistemas de IA prohibidos por considerarse una amenaza para los derechos fundamentales, como la manipulación subliminal que pueda provocar daños o la puntuación social por parte de los gobiernos.
  2. Riesgo Alto: Sistemas que afectan sectores críticos como la educación, el empleo, las infraestructuras esenciales y la administración de justicia. Estos sistemas están sujetos a estrictas obligaciones de transparencia, supervisión humana y evaluación de conformidad antes de su comercialización.
  3. Riesgo Limitado: Sistemas que requieren obligaciones específicas de transparencia, como informar a los usuarios de que están interactuando con una IA, garantizando así una toma de decisiones informada.
  4. Riesgo Mínimo o Nulo: Sistemas que representan un riesgo mínimo para los derechos o la seguridad de los usuarios y que, por tanto, no están sujetos a obligaciones adicionales.

El reglamento impone diversas obligaciones tanto a los proveedores como a los usuarios de sistemas de IA:

  • Proveedores: Deben garantizar que los sistemas de IA de riesgo alto cumplan con los requisitos de gestión de riesgos, gobernanza de datos, documentación técnica, transparencia, supervisión humana y robustez. Además, están obligados a registrar estos sistemas en una base de datos de la UE antes de su comercialización.
  • Usuarios: Deben utilizar los sistemas de IA según las instrucciones proporcionadas, asegurarse de que estén bajo supervisión humana y monitorear su funcionamiento para informar de cualquier incidente grave o mal funcionamiento.

El AI Act busca equilibrar la promoción de la innovación con la protección de los derechos fundamentales. Al imponer obligaciones proporcionales al nivel de riesgo, se pretende mitigar posibles daños sin, en teoría, obstaculizar el desarrollo tecnológico. Sin embargo, surgen desafíos en la interpretación y aplicación de estas normas, especialmente en lo que respecta a la definición de las categorías de riesgo y la implementación de medidas de supervisión y transparencia.

 

Facebooktwittergoogle_pluslinkedinmail

Aquest lloc web utilitza cookies pròpies i de tercers per obtenir informació dels seus hàbits de cerca i intentar millorar la qualitat dels nostres serveis i de la navegació pel nostre lloc web. Si està d’acord fes click a ACCEPTAR o segueixi navegant. Més informació. aquí.

ACEPTAR
Aviso de cookies