La nueva ley europea podría establecer un estándar para regular la IA en todo el mundo y plantear nuevas condiciones de competencia en la industria.
La primera ley en el mundo que modera la producción, comercialización y uso de sistemas basados en inteligencia artificial (IA) acaba de entrar en vigor en la Unión Europea. El instrumento regulatorio está diseñado para garantizar el uso seguro y el desarrollo ético de esta tecnología. Pretende establecer condiciones que favorezcan la innovación y competencia equitativa en el mercado emergente dentro del bloque.
Ursula von der Leyen, presidenta de la Comisión Europea, afirma que “el marco pionero de Europa impulsará el desarrollo de una IA en la que los europeos puedan confiar. Brindará apoyo a las startups, así como a las pequeñas y medianas empresas locales para llevar al mercado soluciones de inteligencia artificial de vanguardia”.
La legislación fue autorizada por el Parlamento en marzo y aprobada por el Consejo de la Unión Europea en mayo. Las autoridades del bloque indican que la normativa “puede establecer un estándar global para la regulación de esta tecnología”. Los analistas sugieren que la nueva ley europea podría dictar nuevos criterios de competencia en el mercado internacional de IA.
¿Qué establece la ley de inteligencia artificial?
La ley autoriza o prohíbe el uso y comercialización de los sistemas de IA en función del “potencial que tienen para causar daño a la sociedad”. Contempla tres calificaciones generales de riesgo:
- Riesgo limitado: considera recursos como los bots de asistencia o las soluciones de análisis que deberán cumplir “obligaciones de transparencia muy leves”.
- Alto riesgo: categoría destinada a productos biométricos, de reconocimiento facial o utilizados con fines educativos y dentro del mercado laboral. Los desarrolladores de estas aplicaciones deberán registrar sus sistemas en un censo y cumplir con obligaciones de gestión de amenazas y calidad más estrictas para poder operar en el mercado europeo.
- Riesgo inaceptable: este nivel enlista programas usados para la manipulación cognitivo-conductual y de puntuación social. Estos quedarán totalmente prohibidos en Europa.
“La ley también prohíbe el uso de IA para vigilancia policial predictiva basada en perfiles y sistemas que utilizan datos biométricos para clasificar a las personas según categorías específicas como raza, orientación sexual o religión”, señalan los reguladores. La reforma incluye un apartado para los modelos de propósito general (GPAI) como GPT-4 o PaLM 2. La mayoría de estos tendrán que cumplir con disposiciones de transparencia limitadas. Aquellos a los que se les atribuyan «capacidades de alto impacto» y que planteen un “riesgo sistémico” enfrentarán una regulación más estricta. En esta última clasificación entrarán los GPAI entrenados con una potencia computacional superior a 10^25 operaciones de punto flotante por segundo (FLOPS).
¿Quiénes están sometidos a la nueva normativa?
La ley debe ser cumplida por los agentes públicos y privados tanto locales como internacionales que comercializan, aplican, compran y usan sistemas de IA dentro de la Unión Europea. Los modelos de código abierto destinados a la investigación, al desarrollo de prototipos y a la creación de sistemas de defensa o seguridad nacional deberán cumplir únicamente con los criterios de transparencia y prevención de riesgos.
La correcta aplicación de la ley será garantizada mediante una nueva estructura de gobernanza. La arquitectura estará encabezada por la Oficina de IA, un organismo que se integrará a la Comisión Europea y tendrá la responsabilidad de hacer cumplir las normas comunes en todo el territorio. Su labor estará apoyada por la Junta de IA compuesta por representantes de los Estados miembros del bloque, un panel de científicos expertos independientes y un foro consultivo que permitirá a las empresas y otras partes interesadas compartir asesoría técnica para la correcta implementación de la reforma.
Sanciones y mecanismos de denuncia
Los desarrolladores, distribuidores y usuarios de gran tamaño que no cumplan con los requisitos del marco legal enfrentarán multas de hasta 35 millones de euros o el equivalente al 7% de su facturación anual a nivel mundial. Las startups, pequeñas y medianas empresas estarán sujetas a sanciones de hasta 7.5 millones o lo correspondiente al 1.5% de su volumen de negocio.
La ley contempla el derecho a presentar una denuncia en caso de ser víctima de una infracción. La queja se podrá presentar ante una autoridad nacional para reclamar una indemnización por los daños derivados.
La aplicación de la normativa será gradual forma gradual. Los Estados miembros del bloque deberán suprimir los modelos de IA prohibidos por la reforma durante el próximo semestre. Las obligaciones de gobernanza para los sistemas de uso general tendrán que cumplirse antes del 1 de agosto de 2025. Los productos considerados en la categoría de alto riesgo deberán ajustarse a las nuevas reglas en no más de dos años.