En 2022, on acte la suppression de l’EIRL ! Notre article vous explique les modifications apportées par la loi du 14 février 2022 et vous dévoile les caractéristiques du statut unique créé. Il faut savoir que celui-ci s’appliquera à toutes les créations d’entreprises dès le 15 mai 2022, soit trois mois après la promulgation de […]
Le règlement européen sur l’intelligence artificielle : AI Act Europe
Depuis le 1er août 2024, l’Union européenne s’est dotée d’un cadre juridique unique au monde pour encadrer l’intelligence artificielle : l’AI Act, ou règlement sur l’intelligence artificielle. Ce texte vise à garantir un usage éthique et sécurisé de l’IA dans l’ensemble du marché européen, tout en laissant place à l’innovation.
Si vous êtes dirigeant d’entreprise, que vous développez ou utilisez de l’IA (même indirectement), ce règlement vous concerne potentiellement.

Un cadre juridique basé sur le niveau de risque
L’un des points clés du règlement, c’est son approche basée sur les risques. En clair : plus une IA peut avoir un impact négatif sur les droits ou la sécurité des personnes, plus elle est encadrée.
Le règlement distingue quatre niveaux de risque :
- Risque inacceptable : certaines IA sont interdites purement et simplement, comme les systèmes de notation sociale à la chinoise ou la surveillance biométrique de masse.
- Risque élevé : ce sont les IA utilisées dans des secteurs sensibles (santé, sécurité, justice, emploi, éducation…). Elles sont soumises à des obligations strictes.
- IA à usage général : comme les grands modèles de langage (ChatGPT, Gemini…), qui peuvent être intégrés à divers produits. Ils doivent respecter des règles de transparence.
- Risque minimal : pour les IA grand public à faible impact (chatbots, filtres photos…). Les exigences sont très limitées.
Niveau | Caractéristique | Période d’application principale |
---|---|---|
Inacceptable | Systèmes interdits (ex. reconnaissance émotionnelle, notation sociale) | 6 mois après entrée en vigueur (1 février 2025) |
Haut risque | IA utilisées dans secteurs critiques (santé, transport, justice…) | 2 ans de transition (à partir du 1 août 2026) |
Usage général | Modèles d’IA généraux (GPAI) soumis à transparence | 12 mois après entrée en vigueur (1 août 2025) |
Faible risque | Autres IA : obligations limitées de transparence | Immédiat à l’entrée en vigueur |
L’application du règlement se fera progressivement. Les systèmes interdits devront être retirés du marché dès février 2025. Les obligations pour les IA à haut risque s’appliqueront à partir d’août 2026, après une phase de transition.
Les solutions pour créer un site web à votre entreprise
Qui est concerné par ce règlement ?
Le texte s’applique à tous les acteurs qui développent, déploient ou utilisent des systèmes d’IA dans l’Union européenne, même si ces acteurs sont basés hors UE.
Le règlement distingue notamment :
- Les fournisseurs : ceux qui conçoivent et commercialisent des systèmes d’IA.
- Les déployeurs (ou utilisateurs professionnels) : ceux qui utilisent une IA dans le cadre de leur activité.
- Les importateurs et distributeurs : ceux qui mettent sur le marché européen des systèmes conçus ailleurs.
Autrement dit, même une TPE ou PME française qui utilise une IA dans ses processus (analyse de CV, évaluation des risques, chatbot intelligent…) peut être concernée.
Quelles sont les obligations des entreprises utilisatrices d’IA ?
Si vous utilisez une IA classée à haut risque, vous avez des obligations précises à respecter en tant que déployeur. En voici les principales :
1. Utiliser l’IA conformément à sa notice
Vous devez utiliser le système dans les limites prévues par le fournisseur. Toute utilisation détournée peut engager votre responsabilité.
2. Mettre en place une supervision humaine
Des personnes formées doivent pouvoir comprendre, surveiller et reprendre la main sur l’IA en cas de problème. Il faut éviter les décisions automatisées non contrôlées.
3. Conserver les journaux d’activité
Les systèmes à haut risque doivent enregistrer des données de fonctionnement. En tant qu’utilisateur, vous devez conserver ces journaux (logs) pendant au moins 6 mois.
4. Signaler les incidents
Tout dysfonctionnement grave (biais, erreurs, atteinte aux droits) doit être signalé dans les meilleurs délais à l’autorité nationale et au fournisseur.
5. Respecter la protection des données
L’IA ne doit pas collecter ou traiter de données personnelles au-delà de ce qui est strictement nécessaire. Il faut notamment vérifier que les données d’entrée sont fiables et non discriminatoires.
Et pour les fournisseurs d’IA ?
Si vous développez ou commercialisez un système d’IA à haut risque, vos obligations sont encore plus lourdes :
- Mettre en place un système de gestion des risques tout au long du cycle de vie de l’IA.
- Documenter en détail le fonctionnement, les performances et les limites du système.
- Faire certifier votre IA avec un marquage CE après une évaluation de conformité.
- Enregistrer votre IA dans la base de données européenne dédiée.
- Mettre en œuvre une surveillance post-commercialisation.
- Signaler tout incident grave dans les 15 jours.
Comment se feront les contrôles ?
Chaque État membre désignera une autorité nationale compétente pour surveiller l’application du règlement. En France, il pourrait s’agir de la CNIL ou de l’ANSSI (ce point reste à confirmer).
Les entreprises devront pouvoir prouver leur conformité à tout moment. Des audits pourront être réalisés, notamment pour les systèmes à haut risque.
Le non-respect du règlement pourra entraîner des sanctions importantes :
- Jusqu’à 35 millions d’euros d’amende ou 7 % du chiffre d’affaires mondial annuel.
- Le retrait immédiat du système d’IA concerné.
- Des actions collectives ou plaintes individuelles de personnes lésées.
Quid de la responsabilité en cas de dommage causé par une IA ?
Le règlement AI Act ne crée pas, pour l’instant, de régime spécifique de responsabilité civile. Cela signifie que si une IA cause un dommage (discrimination à l’embauche, erreur médicale, accident…), la victime devra se tourner vers :
- La loi nationale de responsabilité civile.
- Ou la directive européenne sur la responsabilité du fait des produits.
Mais un projet de directive complémentaire est en cours d’élaboration pour faciliter les recours en cas de dommages liés à l’IA. Il devrait notamment :
- Alléger la charge de la preuve pour les victimes.
- Obliger les entreprises à fournir des informations techniques utiles au procès.
- Définir des devoirs de vigilance selon le rôle des acteurs (fournisseur, utilisateur…).