Dans une note de décembre 2025, la DGSI décrit plusieurs situations concrètes liées à l’IA en entreprise.
Des salariés utilisent des outils d’IA grand public pour traiter des documents confidentiels.
Résultat : données stockées à l’étranger, perte de contrôle et risque RGPD.
Autre dérive : des décisions sensibles confiées à l’IA, sans vérification humaine.
Les biais, erreurs et « hallucinations » peuvent impacter directement les choix commerciaux.
Enfin, l’IA facilite les fraudes par deepfake.
Des dirigeants sont imités pour déclencher des virements urgents.
Ces attaques sont crédibles, rapides et difficiles à détecter.
La DGSI est claire : l’usage de l’IA doit être formalisé, limité et expliqué aux équipes.
Beaucoup d’entreprises ont une charte informatique… mais aucune règle spécifique sur l’IA.
C’est désormais un angle mort juridique, qui ne peut plus être ignoré.
Il est impératif d’encadrer, au sein de sa structure, l’usage de l’IA :
Pour prévenir et limiter les risques, nous vous accompagnons dans :
Un cadre clair protège vos données, vos décisions et vous permet d’utiliser l’IA dans votre entreprise comme un levier de performance, sans exposer vos responsabilités.
Rédaction : Emilie HIJOS
Nos équipes sont à votre disposition : Aurélie DANTZIKIAN - FRACHON, Delphine CALLIES TARRIOTTE et Jérôme SALEUR