Comienzan las negociaciones entre el Parlamento Europeo y el Consejo sobre la Ley de Inteligencia Artificial

Comienzan las negociaciones entre el Parlamento Europeo y el Consejo sobre la Ley de IA

El Parlamento Europeo adoptó el pasado 14 de junio su posición negociadora sobre la Ley de Inteligencia Artificial (IA), que añade prohibiciones relativas a los usos intrusivos y discriminatorios, aplicaciones de alto riesgo y excepciones, y ya ha comenzado las negociaciones con el Consejo Europeo sobre la forma definitiva del texto. La normativa deberá garantizar que la IA desarrollada y utilizada en Europa se ajuste plenamente a los derechos y valores de la UE, respetando requisitos como la supervisión humana, la seguridad, la privacidad, la transparencia, la no discriminación o el bienestar social y medioambiental.

El Parlamento Europeo ha comenzado las negociaciones con el Consejo Europeo sobre la forma definitiva de la Ley de Inteligencia Artificial.

Las normas están enfocadas a prevenir riesgos, a la vez que fijan unas obligaciones para los proveedores y los que despliegan herramientas basadas en inteligencia artificial en función del nivel de riesgo que puedan presentar. Es el caso de los sistemas de IA con un nivel inaceptable para la seguridad de las personas, como los utilizados para sistemas de puntuación social (clasificar a las personas a partir de su comportamiento o características personales), quedarían totalmente prohibidos.

Los eurodiputados han ampliado la lista propuesta por la Comisión Europea, añadiendo prohibiciones que se refieren a los usos intrusivos y discriminatorios de la inteligencia artificial. Entre estas prohibiciones, destacan los sistemas de identificación biométrica remota, en tiempo real o no, en espacios públicos; los sistemas de categorización biométrica que utilicen ciertas características identitarias (género, raza, etnia, etc.), así como los sistemas policiales predictivos basados en la elaboración de perfiles, la ubicación o el historial delictivo.

También se prohíben los sistemas de reconocimiento de emociones por las fuerzas de seguridad, en la gestión de fronteras, los lugares de trabajo o las instituciones de enseñanza; y el rastreo indiscriminado de imágenes faciales sacadas de Internet o de circuitos cerrados de televisión para crear bases de datos de reconocimiento facial, que violan los derechos humanos y el derecho a la intimidad.

Inteligencia artificial de alto riesgo

Por otro lado, los eurodiputados han incluido en la clasificación de las aplicaciones de alto riesgo los sistemas de IA que puedan afectar significativamente al medio ambiente o a la salud, la seguridad o los derechos fundamentales de las personas. Se han añadido a la lista los sistemas de inteligencia artificial utilizados para influir en los votantes y el resultado de las elecciones y en los sistemas de recomendación utilizados por las plataformas de redes sociales (con más de 45 millones de usuarios).

Los proveedores de modelos fundacionales tendrán que evaluar y mitigar los posibles riesgos para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de Derecho, y registrar sus modelos en la base de datos de la Unión Europea antes de comercializarlos.

Los sistemas de IA generativa basados en esos modelos, como ChatGPT, tendrán que cumplir unos requisitos adicionales de transparencia —identificar el contenido como generado por inteligencia artificial, para ayudar a distinguir las falsificaciones de las imágenes auténticas— y estar diseñados de forma que no puedan generar contenido ilegal. Además, deberán publicarse resúmenes detallados de los datos protegidos por derechos de autor que han sido utilizados para su desarrollo.

Innovación en IA

Para impulsar la innovación en IA y apoyar a las pymes, los eurodiputados añadieron como excepciones los proyectos de investigación y los componentes de inteligencia artificial suministrados con licencias de código abierto. La nueva ley promueve los llamados espacios controlados de pruebas o entornos reales en los que las empresas pueden probar la IA bajo la supervisión de las autoridades públicas antes de salir al mercado.

Por último, la Eurocámara quiere facilitar a la ciudadanía la presentación de reclamaciones sobre estos sistemas y la obtención de explicaciones sobre decisiones generadas por sistemas de alto riesgo que menoscaben significativamente los derechos fundamentales. Los eurodiputados también han reformado el papel de la Oficina Europea de Inteligencia Artificial, que se encargaría de supervisar la forma en que se aplica el código normativo sobre IA.

 
 
Patrocinio Plata
Patrocinio Bronce
Salir de la versión móvil