Contexte et portée
Le EU AI Act, officiellement le règlement (UE) 2024/1689, marque la première tentative à l’échelle mondiale d’instaurer un cadre juridique horizontal sur l’intelligence artificielle. Il est entré en vigueur le 1er août 2024. L’objectif est double : d’un côté encourager l’innovation et l’adoption de l’IA dans l’UE, de l’autre garantir que ces technologies respectent les droits fondamentaux, la sécurité et la transparence.
Une approche fondée sur le risque
Le règlement adopte un modèle répartissant les systèmes d’IA selon leur niveau de risque.
Risque inacceptable : certaines utilisations sont interdites dès à présent (ex. : systèmes de notation sociale non consensuelle).
Haut-risque : systèmes soumis à des obligations strictes (transparence, audit, documentation, surveillance).
Risque limité : obligations allégées, notamment de transparence.
Minimal ou négligeable : peu ou pas de contraintes nouvelles.
Principales obligations et sanctions
Le règlement concerne les fournisseurs, les déployeurs, les importateurs, les distributeurs et les fabricants de systèmes d’IA. Les sanctions en cas de non-conformité peuvent atteindre jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial de l’entreprise, selon la gravité. Des lignes directrices publiées par la European Commission éclaircissent, par exemple, la façon d’interpréter les pratiques interdites (ex. : manipulation de comportements, notation sociale, surveillance biométrique non justifiée).
Implications pour les entreprises et le secteur de la cybersécurité
Pour une entreprise comme Devforma, spécialisée dans la formation et l’accompagnement en cybersécurité, le EU AI Act constitue à la fois un défi et une opportunité :
Défi : garantir que les parcours de formation intègrent la conformité aux obligations de traçabilité, documentation et gouvernance des IA « haut-risque ».
Opportunité : devenir un partenaire de confiance pour les organisations qui doivent se conformer à ce nouveau cadre — en proposant des modules dédiés à l’IA responsable, à la gestion des risques et aux bonnes pratiques.
Synergie : comme le EU AI Act met l’accent sur la transparence, l’auditabilité et le respect des droits fondamentaux, l’expertise en cybersécurité (protection des données, contrôle des accès, résilience) devient encore plus centrale.
Ce que cela implique concrètement
Sensibilisation des équipes internes à la notion de « système d’IA » selon les définitions du règlement.
Cartographie des systèmes d’IA utilisés ou proposés (propre ou tiers) afin d’identifier ceux susceptibles d’être « haut-risque ».
Mise en place de processus de conformité : documentation, rapport d’incidents, évaluations de vulnérabilité.
Accompagnement des clients dans l’implémentation des exigences (ex. : transparence, gouvernance, contrôle humain).
Veille sur l’évolution réglementaire et ses impacts technologiques, notamment pour les modèles d’IA généralistes (GPAI) évoqués dans le texte.
Conclusion
Le EU AI Act représente un tournant majeur dans la régulation de l’intelligence artificielle : l’Europe affirme son ambition d’être leader dans l’IA « de confiance ». Pour Devforma, c’est l’occasion de renforcer son rôle d’acteur de la transformation numérique sécurisée, et de proposer des formations et services alignés sur les enjeux réglementaires, éthiques et technologiques de cette nouvelle ère.
 




