La Comisión Europea ha abierto una consulta específica para recopilar aportaciones sobre la implementación de las normas de la Ley de Inteligencia Artificial (IA) de la Unión Europea sobre sistemas de IA de alto riesgo. Se podrán enviar comentarios hasta el 18 de julio de 2025.

La Ley de IA identifica dos sistemas de inteligencia artificial de alto riesgo. Por un lado, aquellos esenciales para la seguridad de los productos, según la normativa armonizada de la Unión Europea. Por otro lado, están los sistemas que pueden influir notablemente en la salud, la seguridad o los derechos fundamentales de las personas, en ciertos ámbitos definidos específicamente por la ley.
El objetivo de la consulta específica abierta es recopilar ejemplos y dudas prácticas que sirvan de base para aclarar cuestiones vinculadas a esta normativa, que afecta tanto a empresas como a organismos públicos y usuarios del sector.
Clasificación de sistemas de IA de alto riesgo
La información obtenida en la consulta se tendrá en cuenta en las próximas directrices de la Comisión Europea sobre la clasificación de los sistemas de IA de alto riesgo, así como en los requisitos y obligaciones correspondientes. También se recabarán aportaciones sobre las responsabilidades a lo largo de la cadena de valor de la inteligencia artificial.
Esta iniciativa busca la participación de una amplia diversidad de partes interesadas. Entre ellos, proveedores y desarrolladores de sistemas de IA de alto riesgo, empresas, entidades públicas usuarias de estas soluciones, así como representantes de instituciones académicas, centros de investigación, gobiernos, autoridades supervisoras y la ciudadanía en general.