La Unión Europea ha desvelado la estructura de la nueva Oficina de IA, el organismo de supervisión y creación de ecosistemas que se está estableciendo en virtud de la Ley de IA del bloque. Se espera que el marco regulatorio basado en riesgos para la inteligencia artificial entre en vigor antes de finales de julio, tras la aprobación final del reglamento por parte de los legisladores de la UE la semana pasada.
La Oficina de IA desempeñará un papel clave en la configuración del ecosistema europeo de IA en los próximos años. El bloque pretende que el organismo desempeñe un doble papel: ayudar a regular los riesgos de la IA y fomentar la adopción y la innovación. También se espera que la Oficina de IA pueda ejercer una influencia más amplia en el escenario global, ya que muchos países y jurisdicciones buscan comprender cómo abordar la gobernanza de la IA.
La estructura de la Oficina de AI que la UE dio a conocer, que según dijo entrará en vigor el 16 de junio, refleja las grandes ambiciones del bloque: el organismo estará compuesto por cinco unidades; unas se centran en aplicar reglas e interrogar los riesgos, mientras que otras tienen como objetivo fomentar la innovación y la adopción de la IA, así como trabajar para lograr la colaboración internacional en los enfoques de la IA.
A continuación se muestra un desglose de en qué se centrará cada una de las cinco unidades de la Oficina de IA de la UE:
Una unidad se ocupará de la “regulación y el cumplimiento”, incluido el enlace con los Estados miembros de la UE para apoyar la aplicación armonizada y el cumplimiento de la Ley de IA. “La unidad contribuirá a las investigaciones y posibles infracciones, administrando sanciones”, según la Comisión, que pretende que la Oficina desempeñe un papel de apoyo a los órganos de gobernanza a nivel de los países de la UE que la ley también establecerá para hacer cumplir el amplio alcance del régimen.
Otra unidad de la Oficina de IA se ocupará de la “Seguridad de la IA”. La Comisión dijo que esto se centrará en “la identificación de riesgos sistémicos de modelos de propósito general muy capaces, posibles medidas de mitigación, así como enfoques de evaluación y prueba”, y los modelos de propósito general (GPAI) se refieren a la reciente ola de tecnologías generativas de IA como como los modelos fundamentales que sustentan herramientas como ChatGPT. Aunque la UE dijo que la unidad estará más preocupada por las GPAI con el llamado “riesgo sistémico”, que la ley define como modelos entrenados por encima de un cierto umbral de cómputo.
La Oficina de IA tendrá la responsabilidad de hacer cumplir directamente las normas de la Ley de IA para las GPAI, por lo que se espera que las unidades pertinentes realicen pruebas y evaluaciones de las GPAI, además de utilizar poderes para solicitar información a los gigantes de la IA para permitir la supervisión.
El trabajo de la unidad de cumplimiento de la Oficina de IA también incluirá la producción de plantillas que se espera que utilicen las GPAI, como por ejemplo para resumir cualquier material protegido por derechos de autor utilizado para entrenar sus modelos.
Si bien parece necesario tener una unidad de seguridad de IA dedicada para dar pleno efecto a las reglas de la ley para las GPAI, también parece destinada a responder a los desarrollos internacionales en la gobernanza de la IA desde que se redactó la ley de la UE, como el anuncio del Reino Unido y los EE. UU. de sus respectivas Institutos de Seguridad de IA el otoño pasado. Sin embargo, la gran diferencia es que la unidad de seguridad de IA de la UE tiene poderes legales.
Una tercera unidad de la Oficina de IA se dedicará a lo que la Comisión denomina “Excelencia en IA y Robótica”, incluido el apoyo y la financiación de la I+D de IA. La Comisión dijo que esta unidad se coordinará con su iniciativa «GenAI4EU» previamente anunciada, que tiene como objetivo estimular el desarrollo y la adopción de modelos de IA generativa, incluso mediante la actualización de la red europea de supercomputadoras para apoyar el entrenamiento de modelos.
Una cuarta unidad se centra en la “IA para el bien social”. La Comisión dijo que esto «diseñará e implementará» el compromiso internacional de la Oficina para grandes proyectos en los que la IA podría tener un impacto social positivo, como en áreas como la modelización meteorológica, el diagnóstico de cáncer y los gemelos digitales para la reconstrucción artística.
En abril, la UE anunció que una colaboración planificada con los EE.UU. sobre la seguridad y la investigación de riesgos de la IA también incluiría un enfoque en el trabajo conjunto sobre los usos de la IA para el bien público. Así pues, este componente de la Oficina de IA ya estaba esbozado.
Finalmente, una quinta unidad abordará la “Coordinación de políticas e innovación en IA”. La Comisión dijo que su función será garantizar la ejecución de la estrategia de IA del bloque, incluido “monitorear las tendencias y las inversiones, estimular la adopción de la IA a través de una red de centros europeos de innovación digital y el establecimiento de fábricas de IA, y fomentar un ecosistema innovador mediante respaldando entornos de pruebas regulatorios y pruebas en el mundo real”.
El hecho de que tres de las cinco unidades de la Oficina de IA de la UE trabajen (en términos generales) en la adopción de la IA, la inversión y la creación de ecosistemas, mientras que solo dos se ocupan del cumplimiento normativo y la seguridad, parece tener como objetivo ofrecer una mayor seguridad a la industria de que la velocidad de la UE para producir un libro de reglas para la IA que no esté en contra de la innovación, como se han quejado algunos desarrolladores locales de IA. El bloque también sostiene que la confiabilidad fomentará la adopción de la IA.
La Comisión ya ha nombrado a los jefes de varias de las unidades de la Oficina de IA (y al jefe general de la propia Oficina), pero aún no se ha nombrado al jefe de la unidad de Seguridad de IA.
La Oficina de IA fue creada por decisión de la Comisión en enero y comenzó el trabajo preparatorio (como la decisión sobre la estructura) a finales de febrero. Se encuentra dentro del departamento digital de la UE, DG Connect, que está (actualmente) dirigido por el comisario de Mercado Interior, Thierry Breton.
La Oficina de AI tendrá eventualmente una plantilla de más de 140 personas, entre personal técnico, abogados, politólogos y economistas. El miércoles, la UE dijo que hasta el momento se había contratado a unos 60 empleados. Planea aumentar la contratación durante los próximos años a medida que la ley se implemente y entre en pleno funcionamiento. La Ley de IA adopta un enfoque gradual de las normas, con algunas disposiciones que se aplicarán seis meses después de que la ley entre en vigor, mientras que otras tendrán un plazo más largo de un año o más.
Una próxima función clave de la Oficina de IA será la de elaborar Códigos de Prácticas y mejores prácticas para los desarrolladores de IA, tarea que la UE quiere que desempeñe un papel provisional mientras se introduce gradualmente el reglamento legal.
Un funcionario de la Comisión dijo que se espera que el Código se lance pronto, una vez que la Ley de IA entre en vigor a finales de este verano.
Otro trabajo para la Oficina de IA incluye el enlace con una variedad de otros foros y organismos de expertos que la Ley de IA establecerá para unir el enfoque de gobernanza y construcción de ecosistemas de la UE, incluido el Consejo Europeo de Inteligencia Artificial, un organismo que estará compuesto por representantes. de los Estados miembros; un panel científico de expertos independientes; y un foro consultivo más amplio compuesto por partes interesadas, entre ellas la industria, las empresas emergentes y las PYME, el mundo académico, los grupos de expertos y la sociedad civil.
«La primera reunión de la Junta de IA debería tener lugar a finales de junio», señaló la Comisión en una nota previa, y agrega: “La Oficina de IA está preparando directrices sobre la definición del sistema de IA y sobre las prohibiciones, ambas previstas seis meses después de la entrada en vigor de la Ley de IA. La Oficina también se está preparando para coordinar la elaboración de códigos de prácticas para las obligaciones relativas a los modelos de IA de uso general, que deberán presentarse nueve meses después de su entrada en vigor”.