Le potentiel de l’IA repose sur la confiance
Le potentiel de l’IA repose sur la confiance. C’est pourquoi, il est urgent d’intégrer la sécurité dans nos modèles d’IA et dans la couche d’applications qu’elle révolutionne aujourd’hui.
« Confiance… Tout comme l’industrie s’est efforcée de sécuriser les serveurs, les réseaux, les applications et le cloud dans le passé, l’IA est la prochaine grande plateforme que nous devons sécuriser. Mais cette fois, nous ne pouvons pas nous permettre d’échouer… »
Pour Kevin Skapinetz, Vice President, Security Strategy, IBM, nous ne pouvons pas nous permettre de faire de la sécurité de l’IA une adaptation à posteriori. A l’entendre, le potentiel de l’IA repose sur la confiance. « Si la confiance dans l’IA devrait être compromise, cela pourrait freiner les investissements, son adoption et notre capacité à compter sur ces systèmes pour atteindre l’objectif prévu – transformant la promesse de l’IA en passif et en coûts irrécupérables… »
C’est pourquoi, il est urgent d’intégrer la sécurité dans nos modèles d’IA et dans la couche d’applications qu’elle révolutionne aujourd’hui – alors que nous sommes encore au début de sa courbe d’adoption. En d’autres termes, la sécurité doit être prise en compte par les équipes concernées au fur et à mesure que les entreprises progressent dans la planification et les investissements en matière d’IA.
« Alors que beaucoup considèrent la sécurité comme un obstacle à ce cheminement, nous pensons que la sécurité peut réellement contribuer à créer la confiance nécessaire pour accélérer les cas d’usage de l’IA en passant plus rapidement des proof-of-concept à la production. »
Innover et sécuriser, le grand décalage
Notons ici qu’IBM vient de publier un framework pour la sécurisation de l’IA générative afin d’aider les entreprises à prioriser ces projets de sécurité. « Big Blue » propose également l’un des portefeuilles de données, d’IA et de sécurité les plus complets du secteur, conçu pour aider les entreprises à intégrer plus facilement la sécurité et la gouvernance dans les fondements de leurs activités alimentées par l’IA.
Comme la plupart des projets d’IA sont menés par des équipes commerciales et opérationnelles, il est essentiel que les responsables de la sécurité abordent ces conversations dans une perspective axée sur les risques, avec une compréhension solide des priorités de l’organisation.
Une nouvelle étude de l’IBM Institute for Business Value révèle un décalage alarmant entre les préoccupations en matière de sécurité et la nécessité d’innover rapidement. Alors que 82 % des personnes interrogées reconnaissent que l’IA sécurisée et digne de confiance est essentielle à la réussite de leur entreprise, 69% d’entre elles affirment encore que l’innovation prime sur la sécurité.
Fusionner sécurité et gouvernance des données
Encore faut-il définir cette nouvelle frontière entre innovation et sécurité. Aujourd’hui, moins d’un quart (24 %) des personnes interrogées ont déclaré qu’elles incluaient la sécurité dans leurs projets actuels de genAI !
Avec les réglementations émergentes et le contrôle exercé par le public concernant une IA responsable, les organisations doivent également mettre en place une gouvernance robuste de l’IA pour gérer l’exactitude, la confidentialité, la transparence et l’explicabilité. « Dans ce contexte, conclut Kevin Skapinetz, les organisations devraient chercher à fusionner plus étroitement les programmes de sécurité et de gouvernance des données, afin d’assurer la cohérence des politiques, de l’application et des rapports entre ces deux disciplines historiquement cloisonnées. »