Annexe III §4
Conformité au règlement IA pour les RH-tech
Si votre plateforme décide quels candidats sont mis en avant, quelles évaluations de performance remontent à la hiérarchie ou quelles questions d’entretien sont générées, vous êtes dans le champ de l’Annexe III §4. L’échéance du 2 août 2026 est réelle — mais celle qui presse, c’est celle de vos acheteurs grands comptes, qui ajoutent déjà des questions sur le règlement IA dans leurs appels d’offres. Nous aidons les fournisseurs RH-tech à traduire ce qui vit déjà dans leur stack ML en un dossier technique Annexe IV défendable.
Le secteur RH est le cas d’usage que la Commission a fléché en premier en rédigeant le règlement IA, et c’est celui qui reçoit le plus d’attention des régulateurs. Le considérant est inhabituellement direct : l’IA utilisée dans l’emploi, la gestion des travailleurs et l’accès au travail indépendant est considérée comme à haut risque dès lors qu’elle sert à recruter, sélectionner, trier, évaluer, promouvoir ou licencier. Cela représente l’essentiel de la surface fonctionnelle d’un produit RH-tech moderne. Le profilage s’applique à l’instant où un système classe un candidat au-dessus d’un autre, et dès que le profilage est en jeu, l’Article 22 RGPD ne se trouve pas à côté du règlement IA — il se trouve dessous. Deux régulateurs, un seul dossier technique.
L’Annexe III §4 couvre quatre domaines : (a) le recrutement et la sélection, y compris la diffusion ciblée d’offres d’emploi, le filtrage des candidatures et le classement de CV ; (b) les décisions affectant les relations de travail — promotion, licenciement, attribution des tâches ; (c) la gestion des travailleurs — surveillance et évaluation comportementale ; (d) l’accès aux plateformes de travail indépendant. L’exemption de l’Article 6, paragraphe 3 — tâches procédurales étroites, tâches préparatoires, détection de motifs sans inférence remplaçant l’humain — ne s’applique presque jamais aux produits RH, parce que la sortie du système constitue l’essentiel de la décision. Nous n’avons jamais vu un moteur de mise en relation candidats survivre au test de l’Article 6, paragraphe 3 lecture serrée.
Les questions des acheteurs suivent un schéma prévisible. Métriques par sous-groupes démographiques sur les catégories protégées. Datasheet du jeu d’entraînement, avec consentement et provenance. Taux de désaccord — à quelle fréquence les relecteurs humains contredisent le classement du modèle. Explication motivée au niveau du candidat (transparence Article 13). Les achats demandent aussi la preuve que travailleurs et candidats peuvent contester les décisions — l’avis de l’Art. 26(7), plus une voie de recours humaine. Aucune n’est une question de politique ; ce sont des questions de preuves, et les preuves existent déjà dans votre pipeline d’évaluation si vous savez où chercher.
L’écart le plus courant que nous trouvons : des métriques d’équité qui existent au moment de l’entraînement mais pas en production. L’AUC par sous-groupe sur un échantillon de validation prouve que l’équipe y a réfléchi ; cela ne prouve pas que le modèle déployé se comporte de la même façon deux mois plus tard. La parade : un moniteur par tranche sur le trafic d’inférence réel — fairlearn ou evalml branché sur votre stack d’observabilité existante. Le deuxième écart le plus fréquent : le journal d’apprentissage continu. Les produits RH se réentraînent souvent sur les retours du tunnel candidat, et l’Annexe IV §1(f) exige que vous déclariez les bornes prédéfinies de cet apprentissage. Un journal de gestion des changements sur le pipeline d’entraînement comble cet écart en un sprint.
Pour les RH-tech, les artefacts qu’attend l’Annexe IV vivent à travers trois systèmes. Performance du modèle et métriques par tranche dans votre suivi d’expériences — runs MLflow, rapports W&B, ou ce que vous utilisez pour comparer les modèles de mise en relation candidats. Dérive, taux de désaccord et métriques d’équité en direct dans votre stack de monitoring — typiquement Langfuse ou LangSmith pour les produits LLM, ou un exporter Prometheus sur mesure sinon. Les journaux de décisions et codes motifs vivent dans la base applicative. Le Sprint produit un document de cartographie qui liste, pour chaque exigence Annexe IV, le système qui détient la preuve et le format d’export qu’attend le dossier technique.
Diagnostic pour les fournisseurs RH-tech
Nous travaillons avec deux clients à la fois. Le Diagnostic confirme la classification Annexe III §4 sur jusqu’à trois systèmes en une semaine, livrable inclus : une synthèse d’écarts en une page, partageable avec vos acheteurs grands comptes. Pilotage par des ingénieurs, prix forfaitaire, pas de livrables sous forme de questionnaire seul.
Secteurs liés
Secteurs dans lesquels nous travaillons
Conformité au règlement IA, par secteur
Annexe III §3
Edtech
Annexe III §5(b)