Legislación
Inteligencia artificial
IA
Unión Europea

El Parlamento Europeo aprueba la Ley de IA: ¿Qué impacto tiene en la empresa?

El objetivo de la legislación es promover una IA de confianza, oh, y la innovación.

Unión Europea
Créditos: Guillaume Perigois (Unsplash).

Tras meses de discusiones, el Parlamento Europeo ha aprobado la primera ley global del mundo que regula la inteligencia artificial (IA).

Con 523 votos a favor, 46 en contra y 49 abstenciones, los eurodiputados han aprobado un texto que ya había sido acordado en principio por los 27 Estados miembros de la Unión Europea (UE) en diciembre de 2023.

Según el texto final, el reglamento pretende promover "la adopción de una IA centrada en el ser humano y digna de confianza, garantizando al mismo tiempo un alto nivel de protección de la salud, la seguridad, los derechos fundamentales y la protección del medio ambiente contra los efectos nocivos de los sistemas de inteligencia artificial".

Casi como una ocurrencia tardía, también "apoya la innovación". 

 

Duras sanciones

La ley se aplicará a todas las empresas que hagan negocios en la UE, y prevé sanciones de hasta el 7% de la facturación global o 35 millones de euros, la cantidad que sea mayor, para las que no mantengan bajo control su uso de la IA.

Gran parte del debate público se ha centrado en los límites que impone al uso de sistemas de identificación biométrica por parte de las fuerzas de seguridad, pero las aplicaciones comerciales de la IA se enfrentan a prohibiciones en materia de puntuación social y de uso de la IA para manipular o explotar las vulnerabilidades de los usuarios.

La ley también consagra el derecho de los consumidores a reclamar por el uso inadecuado de la IA por parte de las empresas y a recibir explicaciones significativas sobre las decisiones tomadas por una IA que afecten a sus derechos. 

La propia explicación significativa del texto final define una IA como "un sistema basado en máquinas diseñado para funcionar con distintos niveles de autonomía y que puede mostrar capacidad de adaptación tras su despliegue y que, por objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas tales como predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales". 

Los legisladores adoptaron un enfoque basado en el riesgo, lo que dio lugar a ciertas prácticas prohibidas en el texto final. Estarán prohibidas la extracción de imágenes faciales de Internet o de las cámaras de seguridad para crear bases de datos de reconocimiento facial, el scoring social y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas. 

Otras áreas de usos de alto riesgo de la IA son las infraestructuras críticas, la educación y la formación profesional, el empleo, los servicios esenciales como la sanidad o la banca, así como la aplicación de la ley, la migración y la gestión de fronteras, la justicia y los procesos democráticos. 

 

Limitaciones de la IA en el lugar de trabajo 

Debido al "desequilibrio de poder", se establecen disposiciones explícitas para garantizar también una mayor protección de los empleados. Los sistemas de IA no podrán utilizarse para reconocer emociones en el lugar de trabajo ni en la educación. 

"El carácter intrusivo de estos sistemas (...) podría dar lugar a un trato perjudicial o desfavorable de determinadas personas físicas o grupos enteros de ellas. Por lo tanto, debe prohibirse la comercialización, puesta en servicio o uso de sistemas de IA destinados a ser utilizados para detectar el estado emocional de las personas en situaciones relacionadas con el lugar de trabajo y la educación. Esta prohibición no debe abarcar los sistemas de IA comercializados por razones estrictamente médicas o de seguridad, como los sistemas destinados a uso terapéutico", dice la ley.

El eurodiputado encargado de dirigir la ley en la comisión de Mercado Interior del Parlamento, el coponente Brando Benifei, afirmó que "los trabajadores y los sindicatos tendrán que ser informados del uso de inteligencia artificial en ellos, y todos los contenidos generados por IA estarán claramente indicados". Por último, los ciudadanos tendrán derecho a una explicación y a utilizar el procedimiento de recurso colectivo, mientras que los implantadores estarán obligados a evaluar el impacto del sistema de IA en los derechos fundamentales de las personas afectadas". 

 

El interés de las grandes tecnológicas 

Sin embargo, no todos se mostraron satisfechos. El grupo de la Izquierda del Parlamento Europeo dijo que el reglamento era precipitado y que la ley "prioriza los intereses de las big tech sobre la seguridad de los ciudadanos", señalando la falta de restricciones significativas sobre lo que pueden hacer las empresas. 

"Las empresas tendrán que autoevaluar si los sistemas de IA que ponen en el mercado son de alto riesgo o no. La normativa sobre IA necesita profundas mejoras para anteponer los intereses de los ciudadanos cuando se trata de productos peligrosos", afirmó el grupo.

La ley final contiene medidas de apoyo a la innovación y a las pequeñas y medianas empresas, como la creación a nivel nacional de sandboxes normativos y pruebas en el mundo real, accesibles a las PYME y a las empresas de nueva creación, para desarrollar y entrenar la IA antes de su comercialización.

Lejos de aplacar a los críticos, esta medida alarmó a la eurodiputada de Izquierda Katerina Konecná. "El reglamento da libertad a las empresas que desarrollan sistemas de IA para probar sus productos, bajo ciertas condiciones, en escenarios del mundo real, como en nuestras calles o en línea. El reglamento deja así de lado la seguridad de los ciudadanos y pone en el centro el interés de los mega-ricos", dijo.

Para convertirse en ley de la UE, el texto final aún debe ser adoptado formalmente por el Consejo Europeo, formado por los Jefes de Estado o de Gobierno de los 27 Estados miembros de la UE. El acto entrará en vigor 20 días después de su publicación en el Diario Oficial de la UE. Sin embargo, no todas sus disposiciones tendrán efecto inmediato en esa fecha. Las prohibiciones de prácticas prohibidas entrarán en vigor seis meses después; los códigos de buenas prácticas, nueve meses más tarde; las normas sobre IA de uso general, 12 meses más tarde; y las obligaciones para los sistemas de alto riesgo, 36 meses más tarde. 

Mientras tanto, se creará una Oficina de IA especial para ayudar a las empresas a empezar a cumplir las normas antes de que entren en vigor. Ya ha empezado a contratar personal.



TE PUEDE INTERESAR...

CASOS DE ÉXITO

Accede a nuestra publicación de canal

DealerWorld Digital

Documentos ComputerWorld

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS