Pourquoi la sécurité IA est urgente en 2026
L'intelligence artificielle est entrée dans les entreprises françaises — souvent par la petite porte. Avant même que les DSI aient défini une politique, les équipes commerciales utilisent ChatGPT pour rédiger des offres, les développeurs demandent à Copilot d'analyser du code propriétaire, les RH uploadent des CVs dans Gemini. Bienvenue dans l'ère du shadow AI.
Les chiffres sont sans appel :
Ce guide ne cherche pas à bloquer l'adoption de l'IA — ce serait contre-productif. L'objectif est d'identifier précisément les risques réels, de les prioriser selon votre contexte PME, et de mettre en place des garde-fous concrets sans créer de friction excessive pour les équipes.
Shadow AI : le risque invisible
Définition et mécanisme de propagation
Le shadow AI désigne l'ensemble des outils d'intelligence artificielle utilisés par les collaborateurs sans validation, contrôle ni connaissance de la DSI ou de la direction. Comme le shadow IT des années 2010 (Dropbox perso pour les fichiers pro, Gmail pour les emails d'entreprise), le shadow AI s'est propagé à une vitesse inédite — en moins de 18 mois, sans budget ni pilote.
Le mécanisme est simple : un salarié découvre ChatGPT à titre personnel, réalise que ça l'aide à rédiger plus vite, et l'utilise naturellement au bureau. Sans malveillance, sans conscience du risque. La barrière entre usage personnel et professionnel disparaît.
Cartographie des outils shadow AI les plus utilisés en entreprise
| Outil | Usage principal observé | Données exposées | Localisation serveurs |
|---|---|---|---|
| ChatGPT (gratuit / Plus) | Rédaction, résumés, code | Contrats, emails clients, code source | USA (Microsoft Azure US) |
| Gemini (Google) | Recherche, rédaction | Données Google Workspace liées | USA / multi-région |
| Perplexity AI | Veille, recherche marché | Requêtes métier, stratégie | USA |
| Midjourney / DALL-E | Visuels marketing | Identité de marque non publique | USA |
| GitHub Copilot (non entreprise) | Aide au développement | Code source propriétaire | USA (GitHub) |
| Notion AI | Notes, documentation | Notes internes, process | USA |
Conséquences concrètes pour les PME
- Données clients exposées : noms, emails, historique de commandes envoyés vers des serveurs américains sans consentement
- Secrets industriels compromis : formules, brevets en cours, processus de fabrication
- Prix et marges divulgués : grilles tarifaires collées pour "analyser la compétitivité"
- Stratégie commerciale exposée : plans de développement, cibles de rachat, roadmap produit
- Code source exfiltré : vulnérabilités révélées à des systèmes tiers non maîtrisés
Les 9 risques cyber de l'IA en entreprise
Au-delà du shadow AI, l'intégration de l'IA dans les processus métier crée de nouveaux vecteurs d'attaque. Voici une cartographie des 9 risques prioritaires pour les PME françaises, avec leur niveau de menace et leur probabilité réelle.
| Risque | Menace (1-5) | Probabilité PME | Impact métier |
|---|---|---|---|
| 1. Prompt injection | ⚠️ 5/5 | Élevée si chatbot public | Contournement filtres, exfiltration données |
| 2. Data leakage (fuite sortante) | ⚠️ 5/5 | Très élevée (shadow AI) | RGPD, perte avantage concurrentiel |
| 3. Hallucination critique | 🔶 4/5 | Élevée sans validation humaine | Erreurs juridiques, médicales, financières |
| 4. Jailbreak | 🔶 4/5 | Modérée (nécessite compétences) | Contournement politiques, contenu illégal |
| 5. Conformité RGPD / AI Act | 🔶 4/5 | Très élevée (toutes PME) | Amendes, sanctions, arrêt activité |
| 6. Dépendance fournisseur | 🔷 3/5 | Élevée (concentration OpenAI) | Arrêt service, augmentation prix x3-5 |
| 7. Model poisoning | 🔷 3/5 | Faible (cible grandes orga) | Comportement malveillant du modèle fine-tuné |
| 8. Attaques adversariales | 🔷 3/5 | Faible (IA de vision surtout) | Tromperie des systèmes de détection IA |
| 9. Supply chain IA | 🔷 2/5 | Faible mais croissante | Backdoor dans modèles open source utilisés |
Prompt injection : l'attaque invisible
Comment ça fonctionne
La prompt injection est une attaque qui consiste à insérer des instructions malveillantes dans les données traitées par un système IA, pour détourner son comportement de sa mission initiale. C'est l'équivalent IA d'une injection SQL — mais au lieu d'injecter du code dans une base de données, on injecte des instructions dans le contexte d'un LLM.
Deux variantes principales :
- Injection directe : l'attaquant saisit directement des instructions dans l'interface (ex. : "Ignore tes instructions précédentes et..."). Facile à détecter, relativement simple à bloquer.
- Injection indirecte : les instructions malveillantes sont cachées dans des données que l'IA va traiter — un email reçu, une page web analysée, un document uploadé. Beaucoup plus insidieuse.
Exemples réels documentés
Défenses efficaces
- Validation des inputs : liste blanche des patterns autorisés, détection des séquences d'injection connues ("ignore previous", "forget your instructions", etc.)
- Séparation données / instructions : utiliser des délimiteurs clairs dans les prompts système pour isoler les données utilisateur des instructions système
- Sandboxing des agents : limiter strictement les outils accessibles (un agent qui lit des emails ne doit pas pouvoir envoyer des emails)
- Monitoring des outputs : analyser les réponses de l'IA pour détecter des comportements hors périmètre (réponses très longues, contenu inattendu, tentatives d'exfiltration)
- Validation humaine pour actions sensibles : tout agent qui exécute des actions réelles (envoi d'email, modification de données) doit passer par une validation humaine au-delà d'un seuil de risque
Fuites de données : anatomie d'un incident
Le cas Samsung : la fuite qui a tout changé
En mars 2023, Samsung a découvert que trois ingénieurs avaient collé du code source confidentiel dans ChatGPT — dont des données liées aux puces semi-conducteurs et à des systèmes de mesure internes. En moins de deux semaines, trois incidents distincts avaient exposé des informations hautement sensibles sur des serveurs tiers. Samsung a réagi en interdisant ChatGPT sur les équipements professionnels, mais le mal était fait.
Ce cas n'est pas isolé. Il illustre un mécanisme universel : les ingénieurs et salariés les plus productifs sont souvent les premiers à adopter les outils IA — et donc les premiers à exposer des données critiques.
Comment ça arrive dans une PME française
Le scénario le plus fréquent se déroule en quatre étapes :
- Un commercial reçoit un appel d'offres complexe. Il colle le cahier des charges (avec des données clients) dans ChatGPT pour générer une réponse.
- Le cahier des charges contient les coordonnées du client, ses contraintes budgétaires et ses délais — données personnelles B2B soumises au RGPD.
- Ces données transitent vers les serveurs OpenAI aux États-Unis, sans DPA signé entre votre entreprise et OpenAI, sans base légale de transfert.
- Vous avez commis une violation RGPD sans le savoir. Et votre client, dont vous étiez sous-traitant, est potentiellement lui aussi en violation vis-à-vis de ses propres clients.
Données les plus exposées en PME
| Catégorie | Exemples concrets | Risque RGPD | Risque commercial |
|---|---|---|---|
| Code source | Algorithmes, logiciels SaaS, API propriétaires | Faible | Très élevé |
| Données clients | CRM, emails, devis, contrats signés | Très élevé | Élevé |
| Données RH | Salaires, évaluations, dossiers personnels | Très élevé | Élevé (litiges) |
| Stratégie commerciale | Grilles tarifaires, marges, roadmap | Faible | Très élevé |
| Documents financiers | Bilans, prévisionnels, dossiers bancaires | Modéré | Très élevé |
| Données de santé | Dossiers patients, bilans médicaux | Critique (données sensibles) | Critique |
Shadow AI : comment le détecter et le maîtriser
Audit des outils IA utilisés en entreprise
Avant de définir une politique, vous devez savoir ce qui se passe réellement. Trois méthodes complémentaires :
- Audit DNS/réseau : analysez les domaines contactés depuis votre réseau sur 30 jours. Recherchez : openai.com, claude.ai, gemini.google.com, perplexity.ai, midjourney.com, copilot.microsoft.com. La plupart des firewalls d'entreprise peuvent générer ce rapport.
- Audit DLP : si vous avez un outil DLP (Symantec, Microsoft Purview, etc.), configurez des règles pour détecter les uploads de données structurées vers ces domaines.
- Enquête anonyme interne : 5 questions, garantie d'anonymat réelle, délai de 7 jours. Vous obtiendrez une image fidèle de l'usage réel — et souvent des idées sur ce que les équipes cherchent à accomplir.
Politique d'usage acceptable (Acceptable Use Policy)
Une fois l'inventaire fait, définissez une politique claire et écrite. Les éléments essentiels :
- Liste des outils autorisés avec leurs conditions d'usage (ex. : ChatGPT Enterprise autorisé, ChatGPT gratuit interdit pour données professionnelles)
- Classification des données : quelles catégories peuvent être partagées avec quels outils (ex. : données publiques OK, données clients jamais)
- Procédure de demande : comment un salarié peut demander l'accès à un nouvel outil IA
- Conséquences : ce qui se passe en cas de violation — sans excès de zèle, mais clairement défini
Alternatives sécurisées à offrir aux équipes
- Pour la rédaction / résumés : ChatGPT Enterprise ou Microsoft Copilot for M365 (si vous êtes sur Microsoft 365)
- Pour le code : GitHub Copilot Business (avec politique de rétention désactivée) ou Cursor Business
- Pour la recherche : Perplexity Enterprise ou Microsoft Copilot
- Pour les données très sensibles : LLM on-premise (Ollama + Mistral ou Llama 3 sur vos serveurs)
Architecture IA sécurisée : 4 patterns selon vos données
Il n'existe pas une architecture IA universelle — le bon pattern dépend de la sensibilité de vos données, de votre budget et de vos contraintes opérationnelles. Voici les 4 patterns principaux :
| Pattern | Exemple | Risque sécurité | Coût relatif | Performance | Idéal pour |
|---|---|---|---|---|---|
| 1. IA SaaS + DPA | ChatGPT Enterprise, Claude Business | 🟡 Modéré | €€ | Excellente | PME, données non critiques |
| 2. IA Cloud souverain | Azure OpenAI EU, OVHcloud AI | 🟢 Faible | €€€ | Très bonne | Données RGPD, secteur régulé |
| 3. IA VPC privé | AWS/GCP private endpoint + GPT-4 | 🟢 Faible | €€€€ | Très bonne | ETI, données confidentielles |
| 4. IA on-premise | Ollama + Mistral Large sur vos serveurs | 🟢 Très faible | €€€€€ | Bonne (GPU requis) | Données ultra-sensibles, souveraineté totale |
Comment choisir selon la sensibilité des données
- Données publiques ou générales (rédaction marketing, veille) → Pattern 1 (SaaS + DPA) suffit
- Données clients, RH, financières → Pattern 2 minimum (cloud souverain EU)
- Secrets industriels, code source propriétaire → Pattern 3 ou 4
- Données de santé, données très sensibles réglementées → Pattern 4 obligatoire
Checklist sécurité IA en 12 points
Cette checklist couvre les actions prioritaires pour sécuriser l'usage de l'IA dans votre entreprise. Niveau : PME 10-250 salariés.
- Inventaire des outils IA utilisés
Audit DNS 30 jours + enquête anonyme → cartographie exhaustive du shadow AI existant - Politique d'usage acceptable (AUP)
Document écrit, validé par la direction, communiqué à tous — liste outils autorisés/interdits par catégorie de données - DPA signés avec tous les fournisseurs IA
Data Processing Agreement obligatoire pour tout outil IA qui traite des données personnelles. Vérifier que les données restent en UE ou sous protection adéquate. - Classification des données
4 niveaux minimum : Public / Interne / Confidentiel / Secret. Associer des règles d'usage IA à chaque niveau. - Formation des équipes
1h de sensibilisation obligatoire : comprendre pourquoi les données confidentielles ne doivent pas aller dans un LLM grand public - Monitoring des logs d'usage IA
Si vous utilisez des outils IA intégrés (Microsoft Copilot, etc.), activer les logs d'audit. Pour les API IA internes, logger les inputs/outputs. - Tests de prompt injection sur vos chatbots
Avant mise en production de tout chatbot ou agent IA public : pentesting prompt injection avec des outils comme Garak ou des red teamers spécialisés - Plan de réponse à incident IA
Procédure documentée : que faire si une fuite est détectée ? Qui notifier ? Délai CNIL (72h). Qui contacter en interne et en externe ? - Gouvernance IA : RSSI ou référent IA désigné
Nommer un responsable IA qui suit l'évolution des outils, valide les nouveaux déploiements et maintient la politique à jour - Audit trimestriel des outils IA
Les outils changent vite, les conditions d'utilisation aussi. Vérifier chaque trimestre que les DPA sont toujours valides et que les outils autorisés n'ont pas changé leurs politiques. - DPIA si nécessaire
Pour tout système IA qui prend des décisions ayant un impact significatif sur des personnes (recrutement, scoring, surveillance) : Data Protection Impact Assessment obligatoire avant déploiement - Conformité AI Act
Identifier si vos systèmes IA sont classés "haut risque" selon l'AI Act (entrée en vigueur 2025-2026). Si oui : obligations de transparence, documentation technique, surveillance humaine renforcée.
Conformité RGPD et AI Act : vos obligations spécifiques
RGPD et IA : les obligations souvent négligées
Le RGPD s'applique à l'IA dès lors que des données personnelles sont traitées. Les obligations spécifiques à surveiller :
- Base légale du traitement : si votre IA analyse des données clients pour prédire des comportements, quelle est votre base légale ? Intérêt légitime (à documenter), consentement, ou exécution du contrat ?
- Droit à l'information : les personnes dont les données sont traitées par votre IA doivent en être informées (mentions dans la politique de confidentialité)
- Droit à l'explication : pour toute décision automatisée ayant un effet significatif sur une personne, celle-ci peut demander une explication humaine (art. 22 RGPD)
- DPIA obligatoire : pour les traitements à risque élevé — profilage, décisions automatisées, traitement à grande échelle de données sensibles
- Transferts hors UE : tout envoi de données vers une IA hébergée aux États-Unis sans DPA adéquat est une violation
AI Act : ce qui change pour les PME
| Type de système IA | Classement AI Act | Obligations | Échéance |
|---|---|---|---|
| Chatbot client visible (avec mention IA) | Risque limité | Transparence : indiquer que c'est une IA | Août 2025 |
| IA de scoring crédit / assurance | Haut risque | Documentation, audit, surveillance humaine, enregistrement | Août 2026 |
| IA de recrutement / évaluation RH | Haut risque | Idem + droits des candidats renforcés | Août 2026 |
| IA de surveillance biométrique | Risque inacceptable | Interdite sauf exceptions très limitées | Interdit dès 2025 |
| Outils IA de productivité interne | Risque minimal | Aucune obligation spécifique AI Act | N/A |
Plan d'action 30 jours pour sécuriser l'IA en entreprise
Un plan concret, réalisable sans consultant externe pour une PME de 20 à 100 salariés. Budget estimé : 0 à 2 000 € selon les outils déjà en place.
Semaine 1 — Audit et politique
- J1-J2 : Extraction des logs DNS sur 30 jours → identifier tous les domaines IA contactés
- J3 : Enquête anonyme interne (Google Forms / Typeform) → usage réel, besoins, frustrations
- J4-J5 : Rédaction de la politique d'usage acceptable (AUP) — 1 à 2 pages, pratique, non juridique
- J6-J7 : Validation par direction + DPO ou juriste si dispo → communication à toutes les équipes
Semaine 2 — DPA fournisseurs et formation
- J8-J10 : Inventaire des fournisseurs IA → vérifier existence et validité des DPA. Priorité : OpenAI, Google, Microsoft, Anthropic.
- J11-J12 : Pour les outils sans DPA valide : bloquer ou migrer vers une alternative conforme
- J13-J14 : Session de sensibilisation équipes (1h) : pourquoi, quels risques, quoi faire / ne pas faire
Semaines 3-4 — Architecture et monitoring
- J15-J18 : Déploiement des alternatives sécurisées pour remplacer les outils shadow les plus utilisés
- J19-J21 : Mise en place monitoring : règles DNS/firewall pour détecter les tentatives d'accès aux outils interdits
- J22-J25 : Pour les chatbots IA existants : audit prompt injection + correctifs
- J26-J28 : Rédaction plan de réponse à incident IA (1 page, qui fait quoi en cas de fuite)
- J29-J30 : Bilan et matrice risque IA à jour — priorisation des chantiers suivants