Point 1 — Inventaire des systèmes IA
Questions à vous poser :
- Avez-vous listé l'ensemble des outils IA utilisés dans votre entreprise, y compris les abonnements SaaS intégrant de l'IA (Copilot, Notion AI, HubSpot AI, outils de recrutement) ?
- Distinguez-vous les IA que vous utilisez en interne de celles que vous déployez auprès de vos clients ou utilisateurs ?
- Cet inventaire est-il maintenu à jour, notamment lors de l'adoption de tout nouvel outil ?
✅ Conforme si :
- Un document ou registre liste tous les systèmes IA utilisés (nom, fournisseur, usage, périmètre).
- La distinction déployeur / utilisateur final est clairement établie pour chaque outil.
- Le registre est révisé au moins une fois par trimestre ou à chaque changement d'outil.
❌ Non conforme si :
- Aucun inventaire formel n'existe — les outils IA sont adoptés sans recensement central.
- Certains services utilisent des outils IA sans que la direction en soit informée (shadow IT IA).
- Vous ne savez pas distinguer les systèmes IA des logiciels classiques dans votre stack.
Point 2 — Classification des risques pour chaque IA
Questions à vous poser :
- Pour chaque IA de votre inventaire, avez-vous déterminé son niveau de risque selon la classification AI Act ?
- Savez-vous quels secteurs ou usages font automatiquement basculer un système en "haut risque" (recrutement, crédit, accès aux services publics, infrastructure critique) ?
- Avez-vous vérifié si vos fournisseurs IA communiquent sur la classification de leurs modèles ?
✅ Conforme si :
- Chaque outil de votre inventaire est associé à un niveau de risque documenté et justifié.
- Les systèmes classés haut risque ont été identifiés et font l'objet d'un traitement prioritaire.
- Vous avez consulté les fiches de conformité publiées par vos principaux fournisseurs IA (Microsoft, Google, OpenAI, etc.).
❌ Non conforme si :
- Vous n'avez jamais analysé vos outils IA sous l'angle de la classification AI Act.
- Vous utilisez un outil de scoring ou d'aide à la décision RH sans savoir s'il est classé haut risque.
- La notion de "système d'IA à usage général" (GPAI) ne vous dit rien par rapport à vos outils.
Point 3 — Aucun système IA interdit en usage
Questions à vous poser :
- Utilisez-vous un système qui analyse les émotions de vos employés, clients ou prospects (reconnaissance faciale émotionnelle, analyse vocale du stress) ?
- Avez-vous mis en place un système de scoring ou de notation de comportement de vos clients ou employés à des fins de prise de décision différenciée ?
- Des outils marketing utilisent-ils des techniques subliminales ou de manipulation comportementale basées sur l'IA pour contourner le libre arbitre des utilisateurs ?
✅ Conforme si :
- Aucun outil de votre inventaire ne correspond aux pratiques interdites listées à l'article 5.
- Vos outils d'analyse comportementale (heatmaps, A/B testing) restent dans les limites autorisées (pas de manipulation subliminale).
- Vous n'avez pas déployé de reconnaissance biométrique à distance dans vos espaces physiques.
❌ Non conforme si :
- Vous utilisez un outil RH qui analyse les micro-expressions faciales lors des entretiens vidéo pour "évaluer" les candidats.
- Votre CRM attribue un "score de fiabilité" ou un "score comportemental" à vos clients pour moduler vos offres de manière opaque.
- Un prestataire a déployé pour vous un système de reconnaissance émotionnelle en point de vente sans vous informer des implications légales.
Point 4 — Transparence envers les utilisateurs
Questions à vous poser :
- Vos chatbots ou assistants virtuels indiquent-ils explicitement à l'utilisateur qu'il s'adresse à une IA et non à un humain ?
- Les contenus générés par IA (articles, images, vidéos) publiés par votre entreprise sont-ils identifiés comme tels ?
- Vos emails ou communications automatisées par IA précisent-ils leur nature automatique lorsque cela est pertinent ?
✅ Conforme si :
- Tous vos chatbots affichent un message d'accueil indiquant leur nature artificielle ("Je suis un assistant IA de [entreprise]").
- Les contenus générés par IA publiés sur votre site ou vos réseaux sociaux sont labelisés (mention "généré par IA" ou équivalent).
- Vos CGU ou politique de confidentialité mentionnent l'utilisation de systèmes IA dans vos processus client.
❌ Non conforme si :
- Votre chatbot se présente sous un prénom humain sans mentionner qu'il s'agit d'une IA.
- Des contenus entièrement générés par IA sont publiés sans aucune mention de leur origine artificielle.
- Vos clients ou prospects ne savent pas que certaines décisions les concernant impliquent un système IA.
Point 5 — Supervision humaine des décisions importantes
Questions à vous poser :
- Pour les décisions importantes (embauche, refus de crédit, accès à un service), un humain valide-t-il systématiquement la recommandation de l'IA avant qu'elle soit appliquée ?
- Vos équipes ont-elles la capacité réelle de comprendre et de contester une décision produite par l'IA (accès aux critères, aux pondérations) ?
- Existe-t-il une procédure claire pour qu'un client ou employé puisse demander une révision humaine d'une décision automatisée ?
✅ Conforme si :
- Aucune décision à fort impact (embauche, licenciement, refus de service, crédit) n'est prise sans validation humaine finale.
- Les managers disposent des outils et de la formation pour comprendre et remettre en question les recommandations de l'IA.
- Une procédure de recours est accessible et documentée pour les personnes affectées par une décision automatisée.
❌ Non conforme si :
- Un outil IA de tri de CV élimine automatiquement des candidats sans qu'un humain ne valide ou ne révise le filtrage.
- Un algorithme de scoring client déclenche automatiquement des actions (blocage de compte, modification de tarif) sans validation humaine.
- Vos équipes suivent systématiquement les recommandations de l'IA sans jamais les remettre en question, faute de formation ou d'outils.
Point 6 — Qualité des données d'entraînement
Questions à vous poser :
- Si vous avez fine-tuné un modèle IA avec vos propres données, pouvez-vous documenter l'origine, la qualité et la base légale (au sens RGPD) de ces données ?
- Vos données d'entraînement sont-elles représentatives de la diversité des cas réels que l'IA rencontrera en production ?
- Avez-vous testé votre modèle fine-tuné pour détecter d'éventuels biais discriminatoires (genre, âge, origine) avant déploiement ?
✅ Conforme si :
- Vous n'avez pas fine-tuné de modèle propre — vous utilisez uniquement des modèles SaaS tiers "as is" (ChatGPT, Claude, Gemini) : ce point ne vous concerne pas directement.
- Si vous avez fine-tuné : un document décrit les jeux de données utilisés (source, volume, période, méthode de collecte, base légale RGPD).
- Des tests de biais ont été conduits et leurs résultats sont archivés.
❌ Non conforme si :
- Vous avez fine-tuné un modèle avec des données clients sans base légale RGPD documentée.
- Les données utilisées pour l'entraînement incluent des données personnelles collectées sans consentement explicite pour cet usage.
- Aucun test de biais n'a été conduit avant la mise en production d'un modèle que vous avez entraîné.
Point 7 — Documentation technique des systèmes à haut risque
Questions à vous poser :
- Avez-vous identifié lesquels de vos systèmes IA tombent dans la catégorie "haut risque" (recrutement, crédit, accès services essentiels, infrastructure critique) ?
- Pour ces systèmes, disposez-vous ou avez-vous demandé à votre fournisseur la documentation technique requise (fiche de conformité, déclaration CE, notice d'utilisation) ?
- Les limitations et cas d'échec connus du système sont-ils documentés et communiqués à vos équipes utilisatrices ?
✅ Conforme si :
- Pour chaque système à haut risque, vous détenez (ou pouvez obtenir sur demande) la documentation technique fournie par le fabricant.
- Vos contrats avec les fournisseurs de systèmes à haut risque incluent une clause d'accès à la documentation de conformité AI Act.
- Les instructions d'utilisation, les performances annoncées et les limitations du système sont connues des équipes qui l'utilisent.
❌ Non conforme si :
- Vous utilisez un outil de recrutement IA ou de scoring financier sans avoir jamais demandé au fournisseur sa documentation de conformité AI Act.
- Vos équipes utilisent un système IA sans connaître ses limitations ou les cas dans lesquels il est peu fiable.
- Aucun contrat ne prévoit l'obligation pour le fournisseur de vous fournir la documentation réglementaire.
Point 8 — Sécurité et robustesse des systèmes IA
Questions à vous poser :
- Vos systèmes IA exposés à des entrées utilisateur (chatbots, formulaires IA, interfaces de génération) ont-ils été testés contre les attaques de type "prompt injection" ?
- Disposez-vous d'un mécanisme de surveillance pour détecter les comportements anormaux ou les dérives de vos systèmes IA en production ?
- Vos fournisseurs IA ont-ils fourni des informations sur leur programme de bug bounty ou leurs tests de robustesse adversariale ?
✅ Conforme si :
- Vos chatbots et interfaces IA intègrent des garde-fous contre les tentatives de manipulation (prompt injection, jailbreaking).
- Un monitoring des sorties IA est en place pour détecter des réponses hors-périmètre ou potentiellement nuisibles.
- Des tests de robustesse sont conduits lors de chaque mise à jour majeure d'un système IA critique.
❌ Non conforme si :
- Votre chatbot peut être détourné par un utilisateur malveillant pour contourner vos règles métier ou extraire des informations sensibles.
- Aucun monitoring des conversations ou des outputs IA n'est en place — vous n'avez aucune visibilité sur ce que produit votre IA au quotidien.
- Vous n'avez jamais testé ce qui se passe si un utilisateur tente de manipuler votre IA avec des instructions malveillantes.
Point 9 — Alignement RGPD et AI Act
Questions à vous poser :
- Vos bases légales RGPD (consentement, intérêt légitime, contrat) sont-elles compatibles avec les usages IA que vous en faites — notamment si les données sont utilisées pour entraîner ou personnaliser un modèle ?
- Vos Analyses d'Impact relatives à la Protection des Données (AIPD / DPIA) ont-elles été mises à jour pour intégrer les risques spécifiques liés à l'IA ?
- Les droits RGPD des personnes (accès, rectification, opposition, droit à l'explication) sont-ils applicables aux décisions prises par ou avec l'IA ?
✅ Conforme si :
- Chaque traitement IA impliquant des données personnelles est couvert par une base légale RGPD explicite et documentée dans votre registre de traitements.
- Vos DPIAs existantes ont été révisées pour inclure une section sur les risques IA (biais, décisions automatisées, opacité des modèles).
- Vos politiques de confidentialité informent les utilisateurs de l'utilisation de leurs données dans des processus IA.
❌ Non conforme si :
- Des données clients collectées pour la facturation sont réutilisées pour personnaliser un modèle IA sans base légale distincte.
- Vos DPIAs ne mentionnent pas l'utilisation de l'IA dans les traitements concernés.
- Vous ne savez pas si votre utilisation de données personnelles dans des systèmes IA nécessite une DPIA obligatoire au sens de l'article 35 RGPD.
Point 10 — Gouvernance IA interne
Questions à vous poser :
- Avez-vous désigné un référent ou responsable IA en interne, chargé de suivre les obligations réglementaires et les évolutions de vos usages IA ?
- Existe-t-il une politique d'usage acceptable de l'IA (AI acceptable use policy) communiquée à tous vos collaborateurs ?
- Disposez-vous d'une procédure de signalement et de gestion des incidents IA (erreur grave, biais détecté, utilisation abusive) ?
✅ Conforme si :
- Un responsable IA (ou un référent dans une plus petite structure) est officiellement désigné et formé aux enjeux réglementaires.
- Une politique d'usage IA écrite existe, couvre les usages autorisés et interdits, et a été communiquée aux équipes.
- Une procédure de signalement d'incident IA est en place — avec un canal dédié et un responsable de traitement identifié.
❌ Non conforme si :
- Personne dans l'entreprise n'est officiellement responsable des sujets IA réglementaires — chacun fait ce qu'il veut avec les outils IA.
- Aucune politique d'usage IA n'a été rédigée : les collaborateurs utilisent ChatGPT, Copilot ou d'autres outils IA sans règles définies sur ce qui est autorisé avec les données clients ou confidentielles.
- Si un incident IA survenait (biais dans un recrutement, fuite de données via un prompt), vous ne sauriez pas comment réagir ni qui alerter.
Interpréter vos résultats
Comptabilisez vos points : 1 point par ✅ Conforme, 0,5 point par ⚠️ À améliorer, 0 point par ❌ Non conforme. Le tableau ci-dessous vous indique votre niveau de conformité et le risque associé.
| Score | Statut | Niveau de risque | Recommandation |
|---|---|---|---|
| 9 – 10 | ✅ Conforme | Minimal | Maintenez votre veille réglementaire et documentez vos pratiques. |
| 7 – 8 | ✅ Majoritairement conforme | Faible | Combler les lacunes identifiées en priorité d'ici juin 2026. |
| 5 – 6 | ⚠️ Conformité partielle | Modéré | Planifier un plan d'action structuré sur 3 mois avec jalons clairs. |
| 3 – 4 | ⚠️ Non-conformité significative | Élevé | Engager un accompagnement externe, commencer par l'inventaire et les points 3 et 4. |
| 0 – 2 | ❌ Non conforme | Critique | Action urgente requise. Suspendre les usages à haut risque en attendant la mise en conformité. |
Prochaines étapes selon votre score
Score 7-10 : Consolider et documenter
Vous êtes sur la bonne voie. L'enjeu est maintenant de pérenniser vos pratiques : mettre à jour votre inventaire à chaque nouvel outil adopté, former vos nouveaux collaborateurs à la politique IA interne, et maintenir une veille sur les actes délégués de la Commission européenne qui préciseront certaines obligations d'ici fin 2026.
Pensez également à vérifier que vos contrats fournisseurs incluent les clauses AI Act nécessaires (transfert d'obligations, accès à la documentation technique, notification d'incidents).
Score 4-6 : Plan d'action sur 3 mois
Un effort structuré sur 12 semaines vous permettra d'atteindre la conformité avant la date limite :
- Semaines 1-2 : Finaliser l'inventaire IA et la classification des risques (points 1 et 2). C'est le fondement de tout le reste.
- Semaines 3-4 : Ajouter les mentions de transparence sur tous les points de contact client IA (point 4) et désigner un référent IA (point 10).
- Semaines 5-8 : Rédiger la politique d'usage IA, mettre à jour les DPIAs, formaliser la supervision humaine pour les décisions critiques (points 9, 10, 5).
- Semaines 9-12 : Demander la documentation technique aux fournisseurs, mettre en place le monitoring des systèmes IA, tester la robustesse des interfaces exposées (points 7, 8).
Score 0-3 : Accompagnement recommandé
Avec moins de 4 points, le volume d'actions à réaliser avant août 2026 justifie un accompagnement externe pour prioriser et aller vite. Un consultant peut compresser 6 mois de travail en 6 semaines grâce à des méthodologies éprouvées et des templates documentaires prêts à l'emploi.
Comment utiliser cette checklist
Cette checklist couvre les 10 obligations fondamentales de l'AI Act pour les PME françaises qui déploient ou utilisent des systèmes d'IA. Elle s'adresse aux entreprises de 10 à 250 salariés qui ont intégré au moins un outil IA dans leurs processus (chatbot, outil de recrutement IA, scoring, génération de contenu, etc.).
Pour chaque point, attribuez-vous l'un des trois statuts suivants en fonction de votre situation réelle :
- ✅ Conforme : vous remplissez toutes les conditions décrites et disposez des preuves documentaires nécessaires.
- ⚠️ À améliorer : vous avez commencé mais la mise en œuvre est partielle ou non documentée. Comptez 0,5 point.
- ❌ Non conforme : vous ne remplissez pas les conditions ou n'avez pas encore traité ce point. Comptez 0 point.
Score final : 9-10 ✅ = conforme | 6-8 = risque modéré | moins de 6 = action urgente requise avant août 2026.