La nueva norma considera sistemas de inteligencia artificial de alto riesgo a los que se utilicen en procesos democráticos o para el control migratorio, entre otros.
El Diario Oficial de la Unión Europea (UE) ha publicado el Reglamento de Inteligencia Artificial (RIA), la primera ley del mundo que regula la tecnología en estos términos. Fue aprobado en marzo por Bruselas y entrará en vigor el próximo 1 de agosto, aunque existen diferentes plazos de aplicación para las diferentes medidas.
- La norma tiene como objetivo la mejora del funcionamiento del mercado de la UE mediante reglas en la introducción de IA en el mercado y su utilización, según explica el propio texto. Para ello, detalla qué prácticas están prohibidas, qué sistemas se consideran de alto riesgo y sanciones por incumplimiento de la ley, entre otros.
El reglamento clasifica los sistemas de IA en función del riesgo que comportan. Pueden ser de alto riesgo, de riesgo sistémico o de bajo riesgo.
Sistemas de IA de alto riesgo. Según explica el abogado experto en Derecho Digital, Jesús Vazquez, “a esta categoría pertenecen las IA que tienen un impacto significativo en la seguridad, la salud, los derechos fundamentales de las personas o si influyen sustancialmente en su toma de decisiones”.
- Un sistema será considerado como IA de ‘alto riesgo’ cuando este se utilice como componente o sistema de seguridad de un producto de los relacionados en el reglamento y se tenga que comprobar por terceros, según explica el reglamento en su tercer capítulo. Vazquez pone de ejemplo los ascensores, embarcaciones de recreo o equipos a presión.
Entran dentro de sistemas de IA de alto riesgo:
- Los que afecten a la gestión de infraestructuras críticas como redes de energía, transporte o suministros de agua.
- Los que realicen perfiles de personas o se utilicen para contratar a empleados.
- Los que afecten a servicios privados o públicos esenciales como servicios financieros, como evaluaciones de crédito, la sanidad o las llamadas de emergencia.
- Los que se utilicen en la administración de justicia. Por ejemplo, para el auxilio a jueces en la toma de decisiones judiciales.
- Los que se utilicen en procesos democráticos, como unas elecciones.
- También los que se usen en el ámbito educativo, como los que evalúen los resultados del aprendizaje del alumnado.
- Serán de alto riesgo las IA que lleven a cabo el control de actividades migratorias, siempre utilizados por las autoridades públicas competentes. Vázquez pone de ejemplo el control de documentos que permitan el acceso en frontera o la consecución de asilo.
- Los utilizados por las Fuerzas y Cuerpos de Seguridad para el análisis de riesgos.
- Los de biometría que no quedan prohibidos en la ley. Aquí puedes consultar qué sistemas de IA estarán prohibidos seis meses después de la entrada en vigor de la ley.
Controles impuestos a los sistemas de alto riesgo. El experto en Derecho Digital detalla que las inspecciones a los sistemas de alto riesgo “no serán efectivas hasta pasados 24 meses de la entrada en vigor de la ley”. Entre los requisitos fundamentales de los fabricantes, distribuidores e implantadores de sistemas de alto riesgo están:
- Establecer un sistema de control de riesgos que incluya revisiones y actualizaciones sistemáticas periódicas.
- Proporcionar documentación técnica que permita a las autoridades evaluar la conformidad de la finalidad prevista del sistema de IA de alto riesgo.
- Proporcionar instrucciones de uso a los encargados de la implantación.
- Permitir la supervisión humana mediante el diseño de sistemas de trazabilidad.
- Establecer un sistema de gestión de calidad.
Las IA de riesgo sistémico. “Hay sistemas de IA que en principio no son de alto riesgo, sin embargo, por su versatilidad, capacidad de cálculo y/o volumen de datos con los que han sido entrenados pueden ser adaptados para llevar a cabo un montón de funciones, potencialmente incluso prácticas de alto riesgo. A estos sistemas no se les considera estrictamente de alto riesgo, sino de riesgo sistémico”, explica el abogado experto en Derecho Digital. Estaríamos, por ejemplo, en el caso de los modelos de lenguaje como Chat GPT o Gemini.
Fuentes
Reglamento de Inteligencia Artificial de la Unión Europea
Entrevista con Jesús Vázquez, abogado experto en Derecho Digital
Fondo Monetario Internacional