El 12 de julio de 2024 se ha producido un hito histórico en la regulación tecnológica: la publicación del Reglamento de Inteligencia Artificial de la Unión Europeaen el Diario Oficial de la Unión Europea (DOUE).
Este reglamento entrará en vigor el 1 de agosto de 2024, pero no será aplicable hasta 24 meses después, excepto en el caso de las prohibiciones de prácticas prohibidas (6 meses después de su entrada en vigor), los códigos de práctica (9 meses después de su entrada en vigor) normas de IA de uso general, incluida la gobernanza (12 meses después de su entrada en vigor) y obligaciones para sistemas de alto riesgo (36 meses de su entrada en vigor).
Esta es la primera iniciativa regulatoria integral a nivel mundial que establece directrices y normativas específicas para el desarrollo, despliegue y uso de la inteligencia artificial (IA).

Objetivos del Reglamento

El objetivo principal del Reglamento de Inteligencia Artificial de la Unión Europea es garantizar un desarrollo y uso de la IA seguro, ético y responsable, minimizando los riesgos potenciales asociados a esta tecnología y promoviendo su uso beneficioso para la sociedad. Para lograrlo, el reglamento establece una serie de requisitos y obligaciones que se estructuran en función del nivel de riesgo que presentan las aplicaciones de IA.

Implicaciones para las empresas

El Reglamento de IA tiene implicaciones significativas tanto para los desarrolladores de sistemas de IA como para las empresas que los utilizan:

Para los desarrolladores de Sistemas de IALas desarrolladores de sistemas basados en IA deberán:

  • Adaptar sus prácticas y procesos para cumplir con el nuevo reglamento.
  • Realizar evaluaciones de riesgos y asegurar la conformidad con los requisitos técnicos y de transparencia.
  • Invertir en documentación y auditorías, especialmente para sistemas de alto riesgo.
  • Incorporar principios éticos y de seguridad en todas las fases del desarrollo de sistemas de IA.

Implicaciones del Reglamento para una PYMELas PYMEs deben evaluar si los sistemas de IA que desarrollan o utilizan se consideran de «alto riesgo» según el reglamento, lo que conlleva mayores obligaciones. Deberán implementar mecanismos de supervisión y control para asegurar el uso seguro y responsable de la IA.

También deberán, capacitar a los empleados sobre el uso adecuado de la IA y sensibilizarlos sobre los riesgos y las obligaciones legales. Además de establecer un Sistema de Gestión de Cumplimiento Legal de la IA que permita gestionar riesgos en todas las materias relevantes.

Medidas de apoyo a PYMES

El reglamento incluye medidas específicas de apoyo a PYMEs, como formación adaptada, canales de comunicación, y publicación de información y mejores prácticas. Además, las microempresas no están obligadas a mantener un sistema de gestión de calidad, aunque sí de gestión de riesgos.

Régimen sancionador para fomentar la IA Responsable

El Reglamento de Inteligencia Artificial de la Unión Europea (RIA) establece un régimen sancionador firme y claro para garantizar el cumplimiento de sus disposiciones. El objetivo de este sistema es doble: penalizar las infracciones y disuadir a las empresas de adoptar prácticas negligentes en el desarrollo y uso de la IA.

Las sanciones por incumplir el RIA pueden ser considerables, alcanzando hasta el 7% del volumen de negocios anual global de la empresa infractora o 35 millones de euros, lo que sea mayor. Además, se contemplan sanciones específicas para diferentes tipos de infracciones.