La regulación histórica de la Unión Europea para las aplicaciones de inteligencia artificial, conocida como la Ley de Inteligencia Artificial de la UE, ha sido publicada en el Diario Oficial del bloque en su versión completa y final.
La nueva ley entra en vigencia el 1 de agosto. En un lapso de 24 meses, es decir, a mediados de 2026, sus disposiciones serán completamente aplicables a los desarrolladores de Inteligencia Artificial. No obstante, la ley sigue un enfoque progresivo para la implementación del código de normas de IA de la Unión Europea. Esto implica la existencia de varios plazos significativos antes de su total aplicación, con la entrada en vigor de distintas disposiciones legales en momentos diversos, algunos de los cuales podrían ser posteriores a la fecha mencionada.
En diciembre del año pasado, los legisladores de la Unión Europea lograron un acuerdo político sobre el primer conjunto de normas integrales para la inteligencia artificial en el bloque.
Las obligaciones impuestas a los desarrolladores de inteligencia artificial por el marco legal varían dependiendo de los casos de aplicación y el nivel de riesgo asociado. La mayoría de las aplicaciones de inteligencia artificial no estarán sujetas a regulación al considerarse de bajo riesgo, sin embargo, existe una minoría de casos de uso de inteligencia artificial que están expresamente prohibidos por la ley.
Los casos de uso considerados de alto riesgo, como la aplicación de tecnologías biométricas de inteligencia artificial o su utilización en sectores como la aplicación de la ley, el empleo, la educación y la infraestructura crítica, son legales. Sin embargo, los desarrolladores de estas aplicaciones deben cumplir con obligaciones relacionadas con la calidad de los datos y la mitigación de sesgos.
Para los creadores de herramientas como los chatbots de IA, también se aplican requisitos de transparencia menos estrictos en un nivel de riesgo adicional.
Los creadores de modelos de inteligencia artificial de propósito general (GPAI), como GPT de OpenAI, deben cumplir con requisitos de transparencia. Las GPAI más avanzadas, que suelen basarse en el umbral de cómputo, podrían estar obligadas a llevar a cabo una evaluación de riesgo sistémico.
Algunos elementos de la industria de Inteligencia Artificial, respaldados por ciertos gobiernos de Estados miembros, llevaron a cabo un intenso lobby con el objetivo de reducir las obligaciones del Grupo de Expertos de Alto Nivel en Inteligencia Artificial (GPAI), debido a la preocupación de que dichas regulaciones pudieran obstaculizar la capacidad de Europa para desarrollar empresas líderes en IA que compitan con las de Estados Unidos y China.
Implementación por fases
La implementación por fases es un enfoque estratégico que consiste en dividir un proyecto en etapas secuenciales y progresivas, con el fin de facilitar su gestión y control, así como minimizar los riesgos asociados.
La lista de prohibiciones de uso de la Inteligencia Artificial entrará en vigencia seis meses después de la promulgación de la ley, concretamente a principios de 2025.
Pronto serán ilegales varios casos de uso de inteligencia artificial considerados de «riesgo inaceptable». Entre ellos se encuentran la calificación crediticia social al estilo chino, la recopilación de bases de datos de reconocimiento facial a través de la extracción no selectiva de Internet o circuitos cerrados de televisión, así como la utilización de biometría remota en tiempo real por parte de las fuerzas del orden en espacios públicos. Se establecen excepciones para situaciones como la búsqueda de personas desaparecidas o secuestradas.
Los códigos de prácticas serán aplicables a los desarrolladores de aplicaciones de IA que estén dentro del ámbito de aplicación, aproximadamente en abril de 2025, es decir, nueve meses después de su entrada en vigor.
La responsabilidad de proporcionar los códigos corresponde a la Oficina de Inteligencia Artificial de la Unión Europea, un organismo establecido por ley para la construcción y supervisión del ecosistema. Sin embargo, aún existen interrogantes en torno a quién llevará a cabo esta tarea, como se desprende de la redacción de las directrices.
Según un informe publicado por Euractiv a principios de este mes, la Unión Europea ha estado solicitando servicios de consultoría para la redacción de códigos, lo cual ha generado inquietudes en la sociedad civil respecto a la posibilidad de que los actores de la industria de la Inteligencia Artificial puedan influir en la configuración de las normativas que les serán aplicadas. Recientemente, MLex informó que la Oficina de Inteligencia Artificial lanzará una convocatoria de expresión de interés con el fin de seleccionar partes interesadas para la redacción de códigos de prácticas destinados a modelos de Inteligencia Artificial de uso general, como respuesta a la presión ejercida por los parlamentarios europeos para garantizar que el proceso sea inclusivo.
Un plazo importante adicional es el que se cumple a los 12 meses de la entrada en vigor, es decir, el 1 de agosto de 2025, momento en el cual se iniciarán a aplicar las disposiciones de transparencia establecidas en la ley sobre los GPAI.
A ciertos sistemas de inteligencia artificial de alto riesgo se les ha asignado un plazo de cumplimiento más amplio, con un período de 36 meses a partir de la fecha de implementación (hasta 2027) para satisfacer sus responsabilidades. En contraste, otros sistemas de alto riesgo deben cumplir en un plazo más corto, específicamente después de 24 meses.