Test de conformité

Découvrez si vous entrez dans le champ du règlement IA

Cinq questions en clair. Nous classons votre système, listons les obligations applicables à votre rôle, et vous indiquons où les preuves se trouvent habituellement. Sans inscription, sans collecte de données personnelles.

Information uniquement, pas un avis juridique. La logique de classification suit le Règlement (UE) 2024/1689 dans son état actuel ; le verdict est un point de départ pour une véritable note de classification, pas un substitut.

Étape 1 sur 5

Quel type de système avons-nous sous les yeux ?

Le règlement IA ne s’applique qu’aux systèmes d’IA. Les logiciels qui suivent des règles fixes sont hors champ.

Qu’est-ce que cela veut dire concrètement ?

Au sens du règlement, un système d’IA est un système basé sur une machine, qui fonctionne avec un certain degré d’autonomie et qui infère, à partir des entrées qu’il reçoit, comment générer des sorties (prédictions, contenus, recommandations, décisions) qui influencent des environnements. Un logiciel purement basé sur des règles, un calculateur, un algorithme de tri, un contrôle d’éligibilité déterministe, n’est pas de l’IA.

Questions fréquentes sur le règlement IA

Ce que nous aimerions que davantage de personnes sachent avant de faire le test. Cinq questions, en clair, sans inscription.

Qu’est-ce que le règlement IA européen ?

Le règlement IA européen (Règlement (UE) 2024/1689) est la loi européenne sur l’intelligence artificielle, fondée sur le risque. Il classe les systèmes d’IA en quatre catégories : pratiques interdites, systèmes à haut risque avec des obligations lourdes de documentation et de supervision, systèmes à risque limité avec des avis de transparence, et systèmes à risque minimal sans obligations spécifiques au-delà de la maîtrise de l’IA. La majeure partie de l’IA en production dans le commercial atterrit dans la catégorie risque minimal. Le règlement est entré en vigueur le 1er août 2024 et ses obligations sont d’application progressive jusqu’en 2027.

Quand le règlement IA s’applique-t-il à mon entreprise ?

Le règlement s’applique si vous développez, déployez, importez ou distribuez des systèmes d’IA sur le marché européen, y compris les entreprises hors UE dont l’IA touche des personnes dans l’UE. Le calendrier progressif : interdictions à partir du 2 février 2025, obligations IA à usage général à partir du 2 août 2025, obligations haut risque à partir du 2 août 2026. Les systèmes déjà sur le marché au 2 août 2026 bénéficient d’un régime transitoire jusqu’au 2 août 2027, sous réserve de ne pas avoir subi de modification substantielle.

Quelles sont les sanctions au titre du règlement IA ?

Trois niveaux, tous mesurés sur le chiffre d’affaires annuel mondial. Pratiques interdites : jusqu’à 35 millions d’euros ou 7 %, le montant le plus élevé étant retenu. Autres obligations haut risque : jusqu’à 15 millions d’euros ou 3 %. Communication d’informations incorrectes ou trompeuses aux autorités : jusqu’à 7,5 millions d’euros ou 1 %. Les sanctions sont appliquées par les autorités nationales, supervisées par l’Office européen de l’IA. Les PME et start-ups voient le montant le moins élevé ; les grandes entreprises voient le plus élevé.

Qui est responsable au titre du règlement IA, le fournisseur d’IA ou l’entreprise qui l’utilise ?

Les deux, avec des obligations différentes. Le fournisseur (l’entreprise qui développe l’IA et la met sur le marché) porte les obligations de dossier technique, d’évaluation de conformité et de gestion des risques. Le déployeur (l’entreprise qui utilise l’IA dans son activité) porte les obligations de transparence, de contrôle humain et de signalement d’incidents. Une entreprise qui modifie substantiellement un modèle tiers devient le fournisseur du modèle modifié. Les importateurs et distributeurs portent des obligations plus légères, principalement de vérification.

Qu’est-ce qu’un système d’IA à haut risque au sens du règlement IA ?

Un système d’IA à haut risque est un système utilisé dans un contexte listé à l’Annexe III du règlement, biométrie, infrastructures critiques, éducation, emploi, accès aux services publics ou privés essentiels (dont le crédit et l’assurance vie et santé), maintien de l’ordre, migration ou administration de la justice. La classification haut risque déclenche un dossier technique (Annexe IV), un système de gestion des risques (Article 9), une surveillance après commercialisation (Article 72), un contrôle humain (Article 14) et une évaluation de conformité. La majeure partie de l’IA en production dans le commercial n’est pas à haut risque.

Prendre contact

Dites-nous où vous en êtes. Réponse sous un jour ouvrable, sans pitch commercial : une lecture rapide de votre exposition au règlement et le bon point de départ.