La UE quiere ser pionera en una regulación de la inteligencia artificial (IA), el último grito tecnológico que los 27 ven como una oportunidad, pero también como un desafío en términos de seguridad. Y es uno de los expedientes de más calado que tiene España sobre la mesa de su presidencia del Consejo de la UE. Lanzada en 2021, dos intensos años de negociaciones han perfilado una norma cuya aspiración es evitar lo que ocurrió con Internet y los datos personales, un campo en el que Europa ha tardado casi 20 años en armar una estructura legal para declarar que lo que hacen Facebook o Instagram es ilegal. Como responsable de las negociaciones en nombre de los 27 este semestre, el Gobierno español ha puesto toda la carne en el asador para abrochar la nueva ley y poner de acuerdo al Parlamento Europeo con el Consejo y la Comisión, pero Francia, Alemania e Italia se han desmarcado con una petición que ha puesto cuesta arriba las negociaciones en su recta final.
En un documento conjunto al que ha tenido acceso elDiario.es, estos tres países piden no regular la tecnología en sí, sino solo su aplicación. Los sistemas que pueden desempeñar muchos tipos de tareas, como el modelo GPT que propulsa ChatGPT, quedarían así libres de normas que pongan barreras a sus capacidades. Solo las empresas que utilizaran GPT para un propósito concreto quedarían bajo el ámbito de la regulación.
Tomando como ejemplo el escándalo de Badajoz, en el que un grupo de menores utilizaron una app de inteligencia artificial para crear fotos de sus compañeras desnudas. Lo que la propuesta de Francia, Alemania e Italia ilegalizaría sería el diseño de una app a la que se puedan suministrar fotos de mujeres para que esta las desnude. Sin embargo, el modelo de inteligencia artificial generadora de imágenes que utiliza esa app (y que es capaz de crear imágenes de mujeres desnudas a partir de fotos reales y de muchas otras funciones) no estaría sometido a las normas de la UE.
Estos tres países proponen que ese tipo de IA de amplio espectro se regulen mediante un "código de conducta" redactado entre las propias empresas que lo desarrollan. Sugieren que los desarrolladores publiquen "tarjetas" con "información relevante para comprender el funcionamiento del modelo, sus capacidades y sus limitaciones", cumpliendo con "cierto nivel de transparencia y seguridad".
Francia, Alemania e Italia piden a su vez que Europa se evada de sancionar a las empresas que incumplan ese código de conducta "inicialmente". Solo "si se observan y reportan de manera repetida infracciones de los códigos de conducta relacionados con los requisitos de transparencia sin que los desarrolladores de modelos las corrijan, se podría establecer un sistema de sanciones después de realizar un análisis adecuado y una evaluación de impacto de las fallas identificadas y de cómo abordarlas de la mejor manera".
"La UE tiene la intención de posicionarse a la vanguardia de la revolución de la IA. Esto requiere un marco regulador que fomente la innovación y la competencia, para que los actores europeos puedan surgir y llevar nuestra voz y valores en la carrera global de la IA", argumentan en el documento conjunto.
La petición de Francia, Alemania e Italia se sale de la posición negociadora que establecieron los 27 en diciembre del año pasado, por lo que fuentes conocedoras de las conversaciones se muestran convencidas de que esos tres países abandonen ese posicionamiento que no hace suyo España en sus negociaciones con la Comisión y el Parlamento. Pero la industria ha hecho una enorme presión para evitar que el desarrollo que llevan a cabo las empresas europeas se quede limitado respecto a sus competidores de China o Estados Unidos.
Uno de los empresarios más vocales en este sentido ha sido Cédric O, ex secretario de Estado de Digitalización francés con Emmanuel Macron y cofundador de Mistral, una startup gala que desarrolla grandes modelos lingüísticos como el GPT de OpenAI. "Dependiendo de cómo sea la ley de la IA, esta podría matar a Mistral o podría permitir que Mistral crezca, y hay mucha zona gris en el medio", ha alegado O en los últimos tiempos.
La IA de Mistral sería la que pasaría a estar desregulada en la propuesta de Francia, Alemania e Italia. "Es realmente crítico", insistía O en una entrevista con Shifted, un medio especializado en información sobre startups.
"El Gobierno francés cree que Mistral es su gran baza para competir con OpenAI y ha movido hilos para que la nueva regulación le afecte lo menos posible", explican a elDiario.es fuentes de la negociación. Francia ha anunciado una inversión de 500 millones de euros en "campeones de la IA" como Mistral, que en junio consiguió cerrar una ronda de financiación privada de 105 millones de euros cuando solo contaba con un mes de vida.
elDiario.es ha intentado recabar la posición de la Secretaría de Estado de Digitalización e Inteligencia Artificial, portavoz del Gobierno en estas negociaciones, que ha rechazado participar en esta información por estar preparando el final de las negociaciones. "No podemos volver la cabeza hacia otro lado", dijo la jefa del departamento, Carme Artigas, en una entrevista con Euroactiv: "Hay consenso en que, aunque los grandes modelos se desplieguen en casos de uso de no alto riesgo, pueden propagar un riesgo sistémico a lo largo de la cadena de valor. Todos somos conscientes de ello".
Se trata de una ley en la que el Gobierno ha hecho una gran apuesta, también en política interior. España es desde 2022 el campo de pruebas del nuevo reglamento y también ha puesto en marcha instituciones como la Agencia de Supervisión de la Inteligencia Artificial, en línea con las ambiciones de la ley europea. Cerrarla bajo la presidencia española sería "la guinda del pastel", reconoce Artigas.
A pesar del sobresalto de última hora que causó el documento a tres, la intención de la presidencia española y el resto de negociadores es cerrar un acuerdo antes de que acabe el año, incluso el próximo 6 de diciembre, que es cuando está prevista la última reunión. Más allá de la intención de Francia, Alemania e Italia de reducir la regulación sobre la tecnología, fuentes conocedoras de las conversaciones explican que quedan otros flecos pendientes, como el delineamiento de los aspectos críticos que deberían quedar fuera del uso de la inteligencia artificial así como lo que tiene que ver con la seguridad nacional, que no es una competencia de la UE.
Otro de los escollos tiene que ver con los sistemas de identificación biométrica. Los gobiernos apostaron por permitir su uso “por parte de las autoridades encargadas de la aplicación de la ley” mientras que la Eurocámara era mucho más restrictiva y quería prohibirlo incluso para fines policiales. Fuentes de la negociación aseguran que se incluirán "numerosas salvaguardas" y reconocen que aún está abierto el asunto de que se puede utilizar en directo.
El movimiento de Francia, Alemania e Italia ha disparado las alarmas entre las asociaciones de derechos digitales que siguen la negociación. "Cuando se trata de sistemas de IA de propósito general (o sistemas de IA sin un conjunto específico de tareas), la regulación debería colocar la mayor parte de la responsabilidad en los desarrolladores de estos sistemas de IA. Las fallas y sesgos se originan en esos grandes modelos y luego se propagan aguas abajo", explica en conversación con elDiario.es Kris Shrishak, investigador del Irish Council for Civil Liberties que ha asesorado a varios gobiernos en la negociación.
"Los implementadores de la IA y los usuarios se enfrentarán a las consecuencias dañinas, pero no tendrán los recursos, el acceso y la capacidad necesarios para abordar los daños. No colocar la responsabilidad aguas arriba, en los desarrolladores, tendría como resultado la incapacidad de mitigar los daños", insiste Shrishak.
Daniel Leufer, portavoz de la ONG Access Now, se posiciona en el mismo sentido. "La posición de Francia, Alemania e Italia es una reacción a lo que fue presentado por la presidencia española, que ya era un enfoque muy diluido respecto a las protecciones que pedía el Parlamento Europeo", señala. "Lo que buscan estos tres países con este documento es establecer un mínimo absoluto para las empresas que desarrollan sistemas de este tipo".
"Lo que la ley de la IA está tratando de hacer es imponer algunas prácticas de desarrollo responsable que realmente cualquier desarrollador confiable debería estar haciendo ya. Así que en realidad es sólo nivelar el campo de juego, sin embargo, se presenta como algo que va a matar por completo la innovación", concluye Leufer: "No se puede dejar que las empresas escriban las normas según les convenga a ellas y a sus enormes márgenes de beneficio. Y además se trata de empresas con mucho dinero. Mistral, que recibió una enorme cantidad de financiación, Google, Meta, OpenAI, Microsoft, están hablando de grandes cantidades de dinero aquí. La posición del Parlamento no es pedir algo que no puedan cumplir".