La Unión Europea acaricia la posibilidad de convertirse en la primera región del mundo en tener una ley completa para regular la inteligencia artificial (IA). Pero tras más de 18 horas de maratonianas negociaciones, todavía no se han logrado cerrar todos los puntos, aunque ya hay acuerdo sobre uno de los más espinosos: cómo regular los modelos fundacionales en los que se basan sistemas como el ChatGPT y que, aunque son considerados fundamentales en la evolución de la tecnología, también generan serias dudas por su capacidad disruptiva.

“Las negociaciones continúan”, indicaban de forma coincidente fuentes próximas a las negociaciones. Las ruedas de prensa convocadas para presentar los resultados a primera hora de la mañana del jueves han sido por el momento aplazadas, en una muestra, sin embargo, de la voluntad de apurar los plazos para lograr salir con un acuerdo para la ley bajo el brazo.

Según las fuentes, el obstáculo fundamental para que los negociadores —representantes de los Estados y de la Eurocámara, con la Comisión Europea— lancen fumata blanca tras una reunión que comenzó el miércoles a las 15.00 a puerta cerrada es otro de los principales escollos en todo el proceso de discusión de la ley: la regulación de la vigilancia biométrica en tiempo real en espacios públicos mediante sistemas como el reconocimiento facial, una de las líneas rojas del Parlamento Europeo, preocupado por la posibilidad de abusos de los derechos fundamentales de los ciudadanos por parte de los Estados a la hora de usar estas tecnologías.

Del mandato negociador de la Eurocámara salió la decisión de prohibir o restringir al máximo los “usos intrusivos y discriminatorios de la IA”, especialmente los sistemas biométricos en tiempo real o en espacios públicos, salvo muy contadas excepciones por motivos de seguridad. Los Estados buscan ampliar estas excepciones, y ahí iban a topar, según advirtió la víspera el eurodiputado Brando Benifei, participante en las negociaciones a tres bandas (los denominados trílogos), con una línea roja clara.

La posición de los eurodiputados es mucho más estricta que la de los Estados y, aunque las negociaciones han sido “difíciles”, hay un optimismo, cauto, eso sí, acerca de la posibilidad de encontrar un punto medio. Siempre y cuando, se subraya desde el Parlamento Europeo, se siga manteniendo la prohibición de la policía predictiva, la vigilancia biométrica en lugares públicos y los sistemas de reconocimiento de emociones en lugares de trabajo y en los sistemas educativos. “Necesitamos un grado de protección suficiente de los derechos fundamentales con las prohibiciones necesarias a la hora de usar [estas tecnologías] para la seguridad y la vigilancia”, resume Benifei.

“Los gobiernos quieren una larga lista de excepciones a la aplicación que no vamos a aceptar”, aseguró el italiano en un encuentro con periodistas horas antes de encerrarse en las discusiones, a las que llegó con el mandato de mantener la prohibición de la policía predictiva, la vigilancia biométrica en lugares públicos y los sistemas de reconocimiento de emociones en lugares de trabajo y en los sistemas educativos.

“Necesitamos un grado de protección suficiente de los derechos fundamentales con las prohibiciones necesarias a la hora de usar [estas tecnologías] para la seguridad y la vigilancia”, según Benifei, que se dijo dispuesto a encontrar un “compromiso” en la materia, como en “casos específicos” de vigilancia policial, pero subrayó que para ello se requerían “salvaguardas” muy robustas y un control de las mismas que, en cualquier caso, no pueden ser ejercidas por los propios Estados. “No vamos a permitir que los gobiernos controlen ellos mismos si respetan la ley, esto es muy, muy importante para nosotros (…) y nunca vamos a aceptar una desviación y no tener un control serio”, adelantó.

Participantes en las negociaciones, como el comisario de Mercado Interior, Thierry Breton, enviaron durante la madrugada mensajes en las redes sociales mostrando una negociación activa en una sesión calificada de “ultramaratón”. Las discusiones sí han permitido ya, de acuerdo con las fuentes consultadas, superar el otro gran obstáculo para un acuerdo provisional sobre la ley —que todavía deberá ser ratificada por el Consejo de la UE y la Eurocámara antes de poder entrar en vigor, como pronto a finales de 2026— , la cuestión de la regulación de los modelos fundacionales, sobre todo aquellos más potentes.

Más que el “qué”, el pulso giraba en torno al “cómo”, explicaban fuentes próximas de la negociación en vísperas de la misma. Países como Alemania, Francia e Italia se habían opuesto en las últimas semanas a, como buscaba la Eurocámara, fijar las obligaciones por ley y abogaban por una mayor autorregulación —mediante códigos de conducta, eso sí, obligatorios— de los desarrolladores. El argumento usado era no trabar la innovación y competitividad en un sector en el que Europa no quiere quedarse atrás frente a sus grandes rivales, Estados Unidos y China.

Pero los eurodiputados, preocupados por la capacidad de estas nuevas tecnologías de afectar derechos fundamentales de los ciudadanos, habían puesto líneas rojas y advertido de su intención de abandonar las negociaciones —lo que habría postergado fuertemente toda la ley, que se espera pueda ser totalmente implementada a finales de 2026— si no se fijaban suficientes salvaguardas. Sobre todo para los modelos fundacionales más potentes, los considerados de “riesgo sistémico” porque tienen capacidades de alto impacto cuyos resultados pueden “no ser conocidos o comprendidos en el momento de su desarrollo y publicación, por lo que pueden provocar riesgos sistémicos a nivel de la UE”, según la definición aceptada por todas las partes.

El meollo, explicaba también Benifei en vísperas de las negociaciones, era la forma en que se “garantiza” para estos modelos más potentes “que lo que hagan los desarrolladores de esos modelos sea obligatorio y se pueda exigir su cumplimiento”. La Eurocámara, señaló, quería un texto lo suficientemente claro para asegurarse de que “no hay manera de escapar a esas obligaciones”, incluso aunque fueran incluidas en un código de conducta como pedían los Estados, pero que, en cualquier caso, “que no sea un compromiso voluntario de facto, sino que se pueda hacer cumplir”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_