Introduction

Depuis le 1er août 2024, l’Union européenne s’est dotée d’un cadre juridique unique au monde pour encadrer l’intelligence artificielle : l’AI Act, ou règlement sur l’intelligence artificielle. Ce texte vise à garantir un usage éthique et sécurisé de l’IA dans l’ensemble du marché européen, tout en laissant place à l’innovation.

Si vous êtes dirigeant d’entreprise, que vous développez ou utilisez de l’IA (même indirectement), ce règlement vous concerne potentiellement. 

AI Act
Hostinger logo

La création de votre site web à partir de 11,99€ / mois

Hostinger logo

La création de votre site web à partir de 11,99€ / mois

Un cadre juridique basé sur le niveau de risque

L’un des points clés du règlement, c’est son approche basée sur les risques. En clair : plus une IA peut avoir un impact négatif sur les droits ou la sécurité des personnes, plus elle est encadrée.

Le règlement distingue quatre niveaux de risque :

  • Risque inacceptable : certaines IA sont interdites purement et simplement, comme les systèmes de notation sociale à la chinoise ou la surveillance biométrique de masse.
  • Risque élevé : ce sont les IA utilisées dans des secteurs sensibles (santé, sécurité, justice, emploi, éducation…). Elles sont soumises à des obligations strictes.
  • IA à usage général : comme les grands modèles de langage (ChatGPT, Gemini…), qui peuvent être intégrés à divers produits. Ils doivent respecter des règles de transparence.
  • Risque minimal : pour les IA grand public à faible impact (chatbots, filtres photos…). Les exigences sont très limitées.
NiveauCaractéristiquePériode d’application principale
InacceptableSystèmes interdits (ex. reconnaissance émotionnelle, notation sociale)6 mois après entrée en vigueur (1 février 2025)
Haut risqueIA utilisées dans secteurs critiques (santé, transport, justice…)2 ans de transition (à partir du 1 août 2026)
Usage généralModèles d’IA généraux (GPAI) soumis à transparence12 mois après entrée en vigueur (1 août 2025)
Faible risqueAutres IA : obligations limitées de transparenceImmédiat à l’entrée en vigueur

L’application du règlement se fera progressivement. Les systèmes interdits devront être retirés du marché dès février 2025. Les obligations pour les IA à haut risque s’appliqueront à partir d’août 2026, après une phase de transition.

Avis clients
Adapté pour
Orienté pour

A partir de 12,19 € /mois 


22 316 avis
Adapté de l’indépendant à la grande entreprise
Pensé pour les sites de contenu éditoriaux

A partir de 36 € /mois 


6 240 avis
Adapté de l’indépendant à la grande entreprise
Pensé pour les sites-commerces

A partir de 0 € /mois 


308 avis
Adapté pour les TPE – PME
Pensé pour les sites-commerces

A partir de 0 € /mois 


617 avis
Disponible qu’aux entreprise utilisant déjà le CRM Hubspot
Pensé pour les sites de contenu éditoriaux

A partir de 11,99 € /mois 


2 909 avis
Adapté pour les TPE, indépendant, freelance, blogueur
Pensé pour tous les types de sites

Qui est concerné par ce règlement ?

Le texte s’applique à tous les acteurs qui développent, déploient ou utilisent des systèmes d’IA dans l’Union européenne, même si ces acteurs sont basés hors UE.

Le règlement distingue notamment :

  • Les fournisseurs : ceux qui conçoivent et commercialisent des systèmes d’IA.
  • Les déployeurs (ou utilisateurs professionnels) : ceux qui utilisent une IA dans le cadre de leur activité.
  • Les importateurs et distributeurs : ceux qui mettent sur le marché européen des systèmes conçus ailleurs.

Autrement dit, même une TPE ou PME française qui utilise une IA dans ses processus (analyse de CV, évaluation des risques, chatbot intelligent…) peut être concernée.

Création de site web avec Hostinger

Relation client avec un CRM Brevo

Facturation avec Abby

Création de site web
avec Hostinger

Relation client
avec un CRM Brevo

Facturation
avec Abby

Quelles sont les obligations des entreprises utilisatrices d’IA ?

Si vous utilisez une IA classée à haut risque, vous avez des obligations précises à respecter en tant que déployeur. En voici les principales :

1. Utiliser l’IA conformément à sa notice

Vous devez utiliser le système dans les limites prévues par le fournisseur. Toute utilisation détournée peut engager votre responsabilité.

2. Mettre en place une supervision humaine

Des personnes formées doivent pouvoir comprendre, surveiller et reprendre la main sur l’IA en cas de problème. Il faut éviter les décisions automatisées non contrôlées.

3. Conserver les journaux d’activité

Les systèmes à haut risque doivent enregistrer des données de fonctionnement. En tant qu’utilisateur, vous devez conserver ces journaux (logs) pendant au moins 6 mois.

4. Signaler les incidents

Tout dysfonctionnement grave (biais, erreurs, atteinte aux droits) doit être signalé dans les meilleurs délais à l’autorité nationale et au fournisseur.

5. Respecter la protection des données

L’IA ne doit pas collecter ou traiter de données personnelles au-delà de ce qui est strictement nécessaire. Il faut notamment vérifier que les données d’entrée sont fiables et non discriminatoires.

Et pour les fournisseurs d’IA ?

Si vous développez ou commercialisez un système d’IA à haut risque, vos obligations sont encore plus lourdes :

  • Mettre en place un système de gestion des risques tout au long du cycle de vie de l’IA.
  • Documenter en détail le fonctionnement, les performances et les limites du système.
  • Faire certifier votre IA avec un marquage CE après une évaluation de conformité.
  • Enregistrer votre IA dans la base de données européenne dédiée.
  • Mettre en œuvre une surveillance post-commercialisation.
  • Signaler tout incident grave dans les 15 jours.

Comment se feront les contrôles ?

Chaque État membre désignera une autorité nationale compétente pour surveiller l’application du règlement. En France, il pourrait s’agir de la CNIL ou de l’ANSSI (ce point reste à confirmer).

Les entreprises devront pouvoir prouver leur conformité à tout moment. Des audits pourront être réalisés, notamment pour les systèmes à haut risque.

Le non-respect du règlement pourra entraîner des sanctions importantes :

  • Jusqu’à 35 millions d’euros d’amende ou 7 % du chiffre d’affaires mondial annuel.
  • Le retrait immédiat du système d’IA concerné.
  • Des actions collectives ou plaintes individuelles de personnes lésées.

Quid de la responsabilité en cas de dommage causé par une IA ?

Le règlement AI Act ne crée pas, pour l’instant, de régime spécifique de responsabilité civile. Cela signifie que si une IA cause un dommage (discrimination à l’embauche, erreur médicale, accident…), la victime devra se tourner vers :

  • La loi nationale de responsabilité civile.
  • Ou la directive européenne sur la responsabilité du fait des produits.

Mais un projet de directive complémentaire est en cours d’élaboration pour faciliter les recours en cas de dommages liés à l’IA. Il devrait notamment :

  • Alléger la charge de la preuve pour les victimes.
  • Obliger les entreprises à fournir des informations techniques utiles au procès.
  • Définir des devoirs de vigilance selon le rôle des acteurs (fournisseur, utilisateur…).
Pas encore de votes.
Chargement...
Sommaire
  • Un cadre juridique basé sur le niveau de risque
  • Qui est concerné par ce règlement ?
  • Quelles sont les obligations des entreprises utilisatrices d’IA ?
  • Et pour les fournisseurs d’IA ?
  • Comment se feront les contrôles ?
  • Quid de la responsabilité en cas de dommage causé par une IA ?
Widget publicitaire Hostinger
Commentaires
0 commentaires
Pas encore de votes.
Chargement...
0/5