L’AI Act européen : des principes insuffisants, place aux engagements

Depuis l’annonce du règlement européen sur l’intelligence artificielle (AI Act), l’Union européenne tente d’encadrer le développement et l’usage des « General Purpose AI » (GPAI) : ces modèles capables de générer textes, images, vidéos ou audio à partir d’instructions textuelles. Après avoir publié, le 10 juillet, un code de conduite volontaire, puis, le 18 juillet, des lignes directrices pour l’interpréter, la Commission européenne passe désormais à l’offensive. Elle attend des acteurs majeurs de la GPAI qu’ils signent et se plient aux nouvelles règles… sous peine de voir la mise en œuvre du règlement retardée, voire compromise.

Un calendrier serré pour un texte majeur

L’AI Act entre en vigueur cet été pour les entreprises développant des GPAI disposant d’une puissance de calcul supérieure à 1023 FLOPs (floating point operations per second). Ces modèles, véritables centrales logicielles, génèrent des revenus colossaux pour leurs éditeurs autant qu’ils soulèvent des questions éthiques, économiques et géopolitiques. Avec la date butoir du prochain round de négociations UE–États-Unis sur les droits de douane début août, la Commission entend montrer qu’elle ne fera aucun cadeau.

Le code de conduite : un test d’allégeance

Le code de conduite publié par la Commission n’est pas contraignant juridiquement : il sert d’outil de référence pour guider les entreprises dans la mise en conformité, notamment concernant :

  • La sécurité informatique et la cybersécurité des GPAI.
  • La traçabilité et la documentation des données d’entraînement.
  • La notification des incidents graves à Bruxelles.
  • La clarification des rôles entre développeurs et fournisseurs de GPAI.
Lire  Android Auto intègre la clim’ : découvrez la fonction secrète qui va révolutionner vos trajets !

Pour la Commission, les premières signatures sont indispensables pour légitimer l’AI Act et démontrer que l’Europe n’est pas seulement un régulateur sévère, mais aussi un partenaire prêt à coopérer.

Meta fait le dos rond et refuse de signer

Principal visé par ces règles, Meta boude le code de conduite. Joel Kaplan, vice-président des affaires institutionnelles de Meta, a publiquement critiqué l’AI Act sur LinkedIn : « L’Europe suit une mauvaise voie sur l’intelligence artificielle », assurant que l’entreprise américaine ne signera pas le document volontaire. Meta argue que les lignes directrices introduisent « de nombreuses incertitudes juridiques » et dépassent le cadre du règlement.

En outre, Meta revendique le soutien de 44 grandes entreprises technologiques européennes (Bosch, Airbus, SAP…) et d’une cinquantaine de startups qui avaient déjà demandé un report de la mise en œuvre de l’AI Act. Derrière ce refus, c’est tout un pan de la diplomatie technologique américaine – regroupé au sein de l’association CCIA (Cloud Computing Industry Association) – qui pousse à une régulation moins contraignante.

OpenAI et Mistral : deux « oui » de poids

À l’inverse de Meta, OpenAI a annoncé qu’elle signerait le code de conduite. Son PDG Sam Altman y voit une opportunité pour consolider sa présence en Europe, notamment dans le cadre des projets de construction de data centers et d’infrastructures (« gigafactories ») soutenus par la Commission. OpenAI mise sur son rôle de pionnier pour négocier des partenariats industriels et sécuriser ses ambitions de navigateur intelligent concurrent de Google.

Autre acteur majeur, la startup européenne Mistral AI a également accepté de rejoindre la liste des signataires. Financée par des investisseurs chevronnés, Mistral se positionne comme le fer de lance de l’IA « open source » en Europe. Sa signature offre un appui symbolique fort, montrant que des modèles locaux peuvent respecter le cadre européen tout en restant compétitifs.

Lire  Découvrez Comment Windows 11 Peut Transformer la Performance de Votre PC avec Cette Nouvelle Fonction !

Les lignes directrices pour définir la GPAI

Les lignes directrices viennent préciser qui entre dans le périmètre GPAI et quels sont les critères à respecter :

  • Un modèle est considéré comme GPAI s’il dépasse 1023 FLOPs lors de son entraînement.
  • Sont concernés les modèles capables de générer plusieurs types de contenu (texte, image, audio, vidéo).
  • Les entreprises utilisant au moins un tiers des ressources pour le déploiement d’un grand modèle deviennent elles-mêmes développeurs.
  • Les modèles open source peuvent être exemptés de certaines obligations s’ils répondent à des critères d’accès libre.

Un annexe à ces lignes directrices cite huit exemples concrets de GPAI déjà sur le marché, de Stable Diffusion et Imagen à Claude ou Gemini, pour aider Bruxelles à identifier précisément les acteurs concernés.

Une affaire de diplomatie et d’équilibre économique

Pour la Commission, la signature du code de conduite par des poids lourds est stratégique. D’un côté, elle contrebalance l’intransigeance de Meta et des entreprises américaines en demandant un appui politique. De l’autre, elle sert de monnaie d’échange dans les négociations commerciales avec les États-Unis. À l’heure où l’UE veut défendre son autonomie technologique sans sacrifier l’attractivité des investissements, l’AI Act devient un marqueur diplomatique autant qu’un règlement interne.

Les défis à relever

Plusieurs points restent à clarifier :

  • Les modalités de suivi et de contrôle de l’application des directives sur les GPAI.
  • L’articulation entre code de conduite volontaire et sanctions du règlement contraignant.
  • La capacité de la Commission à faire respecter les délais de mise en conformité.

Alors que les débats montent sur la scène politique et économique, le code de conduite se révèle un instrument à double tranchant : simple coup de pouce pour faciliter l’application de l’AI Act, ou véritable test de loyauté pour les géants de l’IA ?

Lire  Incroyable : ces failles dans l’IA RH de McDonald’s exposent les données de millions de candidats !

By Octave