La aprobación de la Artificial Intelligence Act por parte del Parlamento Europeo marca un hito significativo en el camino hacia una regulación más clara y estricta en el uso de la inteligencia artificial en Europa. Esta ley tiene como objetivo proteger los derechos y la seguridad de los ciudadanos, al tiempo que fomenta la innovación y el desarrollo responsable de la IA. Con esta legislación, se establecerán normas claras sobre la recopilación y el uso de datos, la transparencia en los algoritmos de IA y la supervisión de sistemas automatizados para garantizar su fiabilidad y seguridad. Es fundamental encontrar un equilibrio entre fomentar la innovación y proteger a los ciudadanos de posibles riesgos asociados con la IA. La Ley de Inteligencia Artificial busca garantizar que la tecnología beneficie a la sociedad en su conjunto de manera segura y ética.
En una decisión histórica, el Parlamento Europeo ha votado hoy a favor de la aprobación de la Ley de Inteligencia Artificial, una legislación que prohíbe el uso de ciertas aplicaciones de IA que representan riesgos inaceptables y establece regulaciones para tipos de IA menos riesgosos.
La nueva normativa prohíbe explícitamente aplicaciones de IA que amenazan los derechos de los ciudadanos, incluyendo sistemas de categorización biométrica basados en características sensibles y el raspado no dirigido de imágenes faciales de Internet o de grabaciones de CCTV para crear bases de datos de reconocimiento facial. Otras aplicaciones prohibidas incluyen el reconocimiento de emociones en el lugar de trabajo y escuelas, la puntuación social, la policía predictiva (cuando se basa únicamente en el perfilado de una persona o la evaluación de sus características) y la IA que manipula el comportamiento humano o explota las vulnerabilidades de las personas.
Las infracciones a la prohibición de ciertas aplicaciones de IA pueden acarrear sanciones de hasta 35 millones de euros o el 7% del «total del volumen de negocios anual mundial del ejercicio financiero anterior, el que sea mayor». Las violaciones de otras disposiciones tendrán penalizaciones menores.
Sin embargo, se establecen exenciones que permiten el uso por parte de las fuerzas del orden de sistemas de identificación biométrica remota en ciertos casos. Un resumen de la Comisión Europea sobre la legislación indica que todos los sistemas de identificación biométrica remota se consideran de alto riesgo y están sujetos a requisitos estrictos. El uso de la identificación biométrica remota en espacios públicamente accesibles con fines de aplicación de la ley está, en principio, prohibido, con estrechas excepciones estrictamente definidas y reguladas.
La Ley de IA fue apoyada por 523 miembros del Parlamento Europeo, mientras que 46 votaron en contra y 49 se abstuvieron. La legislación clasifica la IA en cuatro categorías de riesgo: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo o inexistente.
Los sistemas de IA de alto riesgo estarán sujetos a obligaciones estrictas antes de que puedan ser introducidos en el mercado. Estas obligaciones incluyen sistemas adecuados de evaluación y mitigación de riesgos, registro de actividad para garantizar la trazabilidad de los resultados, medidas adecuadas de supervisión humana para minimizar el riesgo, entre otros requisitos.
La ley ha enfrentado oposición por parte de la Asociación de la Industria de la Computación y las Comunicaciones, un grupo de presión de la industria tecnológica, que argumenta que la Ley de IA impone obligaciones estrictas a los desarrolladores de tecnologías de vanguardia, lo que probablemente ralentizará la innovación en Europa. Además, señalan que ciertos sistemas de IA de bajo riesgo ahora estarán sujetos a requisitos estrictos sin justificación adicional, mientras que otros serán prohibidos por completo, lo que podría conducir a una fuga de empresas y talentos de IA europeos en busca de crecimiento en otros lugares.
La ley se oficializará 20 días después de su publicación en el Diario Oficial, y la prohibición de prácticas prohibidas se aplicará seis meses después de eso, pero otras regulaciones no entrarán en vigor hasta más tarde. Las «obligaciones para sistemas de alto riesgo» solo entrarán en efecto después de 36 meses.
Esta legislación marca un paso significativo hacia la regulación de la inteligencia artificial, buscando reducir riesgos, crear oportunidades, combatir la discriminación y traer transparencia, según MEP Brando Benifei, coponente del Comité del Mercado Interior. Además, se formará una oficina de IA «para apoyar a las empresas a comenzar a cumplir con las normas antes de que entren en vigor».
Entre los ejemplos de IA de alto riesgo se incluyen el uso de IA en cirugía asistida por robots, sistemas de puntuación crediticia que pueden negar préstamos, aplicaciones de cumplimiento de la ley que pueden interferir con los derechos fundamentales, como la evaluación de la fiabilidad de la evidencia, y el examen automatizado de solicitudes de visa.
La categoría de riesgo limitado se refiere a aplicaciones que no son transparentes sobre el uso de la IA. La Ley de IA introduce obligaciones de transparencia específicas para asegurar que las personas estén informadas cuando sea necesario, fomentando la confianza. Por ejemplo, al usar sistemas de IA como chatbots, se deberá informar a las personas que están interactuando con una máquina para que puedan tomar una decisión informada de continuar o retroceder. Los proveedores también tendrán que asegurar que el contenido generado por IA sea identificable.
Los textos generados por IA que se publiquen con el propósito de informar al público sobre asuntos de interés público deben etiquetarse como generados artificialmente, requisito que también se aplica al contenido de audio y video que constituya deep fakes.
La IA con riesgo mínimo o inexistente incluye aplicaciones como juegos de video habilitados para IA o filtros de spam. La gran mayoría de los sistemas de IA actualmente utilizados en la UE caen en esta categoría, sin restricciones aplicables.