Les obligations concretes imposees par l AI Act a votre entreprise
L AI Act impose un ensemble d obligations qui varient selon votre statut (fournisseur, deployeur, importateur, distributeur) et le niveau de risque du systeme d IA concerne. Voici le panorama complet des obligations en 2026.
Obligations par profil d acteur
| Profil | Definition | Obligations principales |
|---|---|---|
| Fournisseur | Developpe le systeme et le met sur le marche | Documentation technique, gestion des risques, marquage CE, declaration UE de conformite, AI Literacy |
| Deployeur | Utilise le systeme dans son activite | Supervision humaine, instructions d utilisation, journalisation, AI Literacy |
| Importateur | Met sur le marche UE un systeme hors UE | Verification de la conformite du fournisseur, conservation de la documentation |
| Distributeur | Distribue sans modifier le systeme | Verification du marquage CE, conservation des documents |
1. AI Literacy - Article 4 (deja en vigueur)
Toute entite (fournisseur ET deployeur) doit garantir un niveau suffisant de maitrise de l IA pour ses collaborateurs. Voir notre page AI Literacy.
2. Documentation technique - Annexe IV
Pour les systemes a haut risque, le fournisseur doit constituer une documentation technique complete avant la mise sur le marche : description du systeme, finalite, methodes d entrainement, donnees utilisees, mesures de gestion des risques, instructions d utilisation. Conservation pendant 10 ans.
3. Gestion des risques - Articles 9 a 15
Identification des risques previsibles, mesures d attenuation, tests, evaluations, mises a jour. Demarche iterative et documentee tout au long du cycle de vie du systeme.
4. Qualite des donnees d entrainement
Les donnees utilisees pour entrainer un systeme a haut risque doivent etre pertinentes, representatives, exemptes d erreurs et completes. Cette obligation vise a reduire les biais discriminatoires.
5. Transparence et information
Les utilisateurs doivent etre informes du fonctionnement du systeme, de ses capacites et de ses limites. Pour les systemes a risque limite : obligation de signaler qu il s agit d une IA. Voir notre page transparence Article 50.
6. Supervision humaine
Pour les systemes haut risque, des mesures de supervision humaine doivent etre prevues. L humain doit pouvoir comprendre, surveiller et au besoin desactiver le systeme. Critique pour les outils RH (recrutement, evaluation).
7. Robustesse, precision et cybersecurite
Les systemes haut risque doivent atteindre un niveau approprie de precision, de robustesse et de cybersecurite, et le maintenir tout au long de leur cycle de vie.
8. Marquage CE et declaration UE de conformite
Les systemes a haut risque suivent le regime du marquage CE classique : evaluation de conformite, declaration UE, marquage CE, enregistrement dans la base de donnees europeenne.
9. Notification d incidents graves
Tout incident grave lie a un systeme a haut risque doit etre signale a l autorite de surveillance du marche dans les delais prescrits.
10. Obligations specifiques aux GPAI
Les fournisseurs de modeles d IA a usage general (GPAI : ChatGPT, Claude, Mistral) ont des obligations dediees : documentation, droits d auteur, transparence sur les donnees d entrainement. Voir notre page GPAI et AI Act.
Tableau recapitulatif
| Obligation | Qui | Quand | Sanction |
|---|---|---|---|
| AI Literacy (Art. 4) | Tous | 2 fevrier 2025 | Jusqu a 15 millions d euros |
| Interdictions (Art. 5) | Tous | 2 fevrier 2025 | Jusqu a 35 millions d euros |
| Obligations GPAI | Fournisseurs GPAI | 2 aout 2025 | Jusqu a 15 millions d euros |
| Haut risque + transparence | Fournisseurs / Deployeurs | 2 aout 2026 | Jusqu a 15 millions d euros |
Pour mettre en place ces obligations, consultez notre guide de mise en conformite AI Act ou nos formations AI Act. Voir aussi le guide complet et la page sanctions AI Act.