La UE ha sido pionera en las leyes que regulan la IA. Foto: Pixabay

Europa anuncia la primera ley en el mundo que regula la IA

Los Estados miembros de la Unión Europea tienen hasta el 2 de agosto de 2025 para designar a la autoridad que se encargará de aplicar la legislación a nivel nacional

A partir del 1 de agosto de 2024 entró en vigor la Ley Europea de Inteligencia Artificial (Ley de IA) y tiene por objetivo fomentar el desarrollo y la implementación responsables de la inteligencia artificial en la Unión Europea.

La Ley de IA, fue propuesta por la Comisión Europea en abril de 2021 y aprobada por el Parlamento Europeo y el Consejo en diciembre de 2023, la cual aborda los posibles riesgos para la salud, la seguridad y los derechos fundamentales de los ciudadanos. Proporciona a los desarrolladores e implementadores requisitos y obligaciones claros en relación con usos específicos de la IA, al tiempo que reduce las cargas administrativas y financieras para las empresas.

Acerca de la nueva Ley

La norma introduce un marco uniforme en todos los países de la UE, basado en una definición prospectiva de la IA y un enfoque basado en el riesgo:

  • Riesgo mínimo: la mayoría de los sistemas, como los filtros de spam y los videojuegos habilitados con IA, no enfrentan ninguna obligación bajo la Ley de IA, pero las empresas pueden adoptar voluntariamente códigos de conducta adicionales.
  • Riesgo de transparencia específico: sistemas como los chatbots deben informar claramente a los usuarios de que están interactuando con una máquina, mientras que ciertos contenidos generados por IA deben estar etiquetados como tales.
  • Alto riesgo: este tipo de sistemas, como el software médico basado en IA o los sistemas utilizados para el reclutamiento, deben cumplir requisitos estrictos, incluidos sistemas de mitigación de riesgos, conjuntos de datos de alta calidad, información clara para el usuario, supervisión humana, etc.
  • Riesgo inaceptable: por ejemplo, los sistemas de IA que permiten la “puntuación social” por parte de gobiernos o empresas se consideran una clara amenaza a los derechos fundamentales de las personas y, por lo tanto, están prohibidos.

“La Unión Europea aspira a ser líder mundial en materia de IA segura. Mediante el desarrollo de un marco regulador sólido basado en los derechos humanos y los valores fundamentales, la UE puede desarrollar un ecosistema de IA que beneficie a todos. Esto significa una mejor atención sanitaria, un transporte más seguro y limpio y mejores servicios públicos para los ciudadanos. Aporta productos y servicios innovadores , en particular en materia de energía, seguridad y atención sanitaria, así como una mayor productividad y una fabricación más eficiente para las empresas, mientras que los gobiernos pueden beneficiarse de servicios más baratos y sostenibles, como el transporte, la energía y la gestión de residuos“, se puede leer en el comunicado.

europa_anuncia_la_primera_ley_en_el_mundo_que_regula_la_ia(2)
La UE ha sido pionera en leyes que regulan la IA. Foto: ec.europea.eu

Recientemente, la Comisión ha puesto en marcha una consulta sobre un Código de prácticas para proveedores de modelos de inteligencia artificial de uso general (GPAI). Este Código, previsto en la Ley de IA, abordará áreas críticas como la transparencia, las normas relacionadas con los derechos de autor y la gestión de riesgos. Se invita a los proveedores de GPAI con operaciones en la UE, las empresas, los representantes de la sociedad civil, los titulares de derechos y los expertos académicos a presentar sus opiniones y conclusiones, que se incorporarán al próximo borrador del Código de prácticas sobre modelos GPAI que elaborará la Comisión.

Los Estados de la UE tienen hasta el 2 de agosto de 2025 para designar a la autoridad que se encargará de aplicar la legislación a nivel nacional, mientras que a escala europea la tarea recaerá en una nueva Oficia de IA en la Comisión Europea.

La mayoría de disposiciones de la ley se aplicarán a partir del 2 de agosto de 2026 con excepción de la prohibición de los sistemas de riesgo inaceptable, que será efectiva dentro de seis meses, y las normas para IA de uso general, que lo serán en un año.