Plus d’un tiers de données réglementées -dont les organisations ont l’obligation légale de protéger- sont partagées avec des applications de genA, ce qui présente pour les entreprises un risque potentiel de violations de données.

L’utilisation de l’IA générative a plus que triplé en douze mois, mais les organisations ont toujours du mal à équilibrer la sécurité et la gestion des risques, estime Netskope. Les données réglementées partagées avec des applications d’IA générative sont trop nombreuses.

L’explication ? L’accélération, précisément, des usages, pour ne pas dire l’explosion de ceux-ci. 96 % des entreprises utilisent désormais la genAI, trois fois plus en l’espace d’un an ! En moyenne, les entreprises utilisent près de 10 applications de genAI, contre 3 l’année dernière. De là, la multiplication des partages au sein même des applications de genAI. Ceux-ci représenteraient 46 % de toutes les violations documentées des politiques de données…

Coaching utilisateur en temps réel

Réduire, voire bloquer, certaines applications est une piste. Elle serait suivie par trois entreprises sur quatre. Cependant, alors que moins de la moitié des organisations appliquent des contrôles centrés sur les données pour empêcher le partage d’informations sensibles lors des demandes de saisie, la plupart sont en retard dans l’adoption des solutions avancées de prévention des pertes de données nécessaires pour activer la genAI en toute sécurité.

Retard ne veut pas dire inaction. Il existe des signes positifs d’une gestion proactive des risques dans les nuances des contrôles de sécurité et de perte de données que les organisations appliquent. Ainsi, 65 % des entreprises mettent désormais en œuvre un coaching utilisateur en temps réel pour aider à guider les interactions des utilisateurs avec les applications de genAI. Selon l’étude, un coaching utilisateur efficace a joué un rôle crucial dans l’atténuation des risques liés aux données ; 57 % des utilisateurs ont modifié leurs actions après avoir reçu des alertes de coaching.

Mesurer, démarrer, réviser, itérer

Netskope invite à évaluer les utilisations actuelles de l’IA et de l’apprentissage automatique, à identifier les vulnérabilités et les lacunes dans les contrôles de sécurité. Ensuite, établir des mesures de sécurité fondamentales, telles que des contrôles d’accès, des mécanismes d’authentification et un cryptage.

Au-delà de ces bases, élaborer une feuille de route pour les contrôles de sécurité avancés. Envisager la modélisation des menaces, la détection des anomalies, la surveillance continue et la détection comportementale pour identifier les mouvements de données suspects à travers les environnements cloud vers les applications de genAI qui s’écartent des modèles d’utilisation normaux.

Enfin, mesurer, démarrer, réviser, itérer. Autrement dit, évaluer régulièrement l’efficacité des mesures de sécurité. Les adapter et les affiner en fonction des expériences du monde réel et des menaces émergentes.