L’IA qui protège… et qui attaque
Aide précieuse pour la cybersécurité, l’IA sera aussi, demain, la première menace, estime BeyondTrust dans ses prédictions pour 2024.
L’IA change la donne en matière de cybermenaces. Dans ses prédictions pour 2024 de BeyondTrust, elle occupe désormais une place prépondérante. Les acteurs malveillants intégreront de plus en plus l’IA générative, l’utilisant comme un levier pour renforcer leur capacité d’attaque, assure l’éditeur. Ils utiliseront de plus en plus des systèmes accessibles à tous, mais aussi des versions open source détournées pour leurs propres besoins afin d’améliorer leurs attaques par email et par deepfakes. Des IA génératives spécialisées deviendront un outil crucial pour eux, facilitant la découverte de vulnérabilités et l’évasion de la détection.
« Nous avons déjà été témoins de l’exploitation des capacités de l’intelligence artificielle pour générer des ransomwares et des malwares, mais nous n’avons pas encore été pleinement testés en tant que cybermenace commerciale », explique BeyondTrust. L’IA générative -pensez aux technologies comme ChatGPT- a déjà ouvert la voie à ce qui va suivre : l’IA faible (Narrow AI), qui se concentre sur des tâches spécifiques et étroites. Une IA faible prospérera en 2024, offrant un avantage aux acteurs malveillants dans des domaines spécifiques, tels que la découverte de vulnérabilités et l’évasion de la détection.
IA faibles, IA fortes
« Nous nous attendons également à une croissance significative de Strong AI, qui offre une intelligence beaucoup plus large et plus humaine », poursuit BeyondTrust. La Strong AI est également connue sous le nom d’AGI (Artificial General Intelligence) ou (Artificial Super Intelligence). Cela pourrait conduire à l’émergence d’acteurs de menaces informatiques capables de mener de manière autonome des cyberattaques de bout en bout.
« Une IA forte permettra également à un seul acteur menaçant d’agir comme un grand groupe ». Cela supplantera les compétences techniques autrefois fournies par d’autres humains, tout en donnant à l’attaquant un avantage concurrentiel en termes de rapidité et d’échelle pour capitaliser sur le marché noir contre les acteurs de menace traditionnels, exclusivement humains.
De nouveaux vecteurs de menaces émergent
Selon BeyondTrust, l’IA continuera d’améliorer les vecteurs d’attaque existants, comme le phishing, le vishing et le smishing. Cela créera également de nouveaux vecteurs d’attaque conçus en fonction de la qualité des résultats de l’IA générative elle-même.
« L’IA générative sera aussi perturbatrice pour le monde que l’ère .com l’a été au début des années 2000, analyse BeyondTrust. Certains soutiennent que l’intelligence artificielle sera aussi révolutionnaire qu’Internet lui-même… »
Les auteurs de menaces ont toujours trouvé un moyen d’exploiter les nouvelles technologies pour mener des comportements malveillants. Certains premiers indicateurs de ce potentiel se sont déjà matérialisés sous la forme de faux articles de presse publiés dans des périodiques de premier plan, de fausses affaires judiciaires et de fausses correspondances et annonces émanant d’organisations reconnues. Celles-ci se matérialiseront sous la forme de vidéos, de voix, de publicités et même de faux historiques ou de fausses annonces de produits qui mettront à l’épreuve notre capacité à déterminer ce qui est réel et ce qui est une arnaque.
Les assistants de code introduisent une vulnérabilité supplémentaire
L’adoption croissante des assistants IA introduira, peut-être de manière contre-intuitive, davantage d’erreurs dans le développement de logiciels. À savoir, écrire des failles de sécurité dans le code source.
Des chercheurs de Stanford ont publié les résultats d’une étude montrant que les développeurs utilisant des assistants IA pour écrire du code sont plus susceptibles d’introduire des failles de sécurité que ceux qui ne s’appuient pas sur des assistants IA.
À mesure que les développeurs continuent d’adopter des outils conçus pour leur faciliter la vie et augmenter leur productivité, nous verrons du code source envoyé vers des services cloud qui peuvent ne pas être sécurisés, ce qui entraînera des risques liés au code source. L’utilisation accrue de ces outils commencera également à introduire des vulnérabilités et des erreurs de configuration involontaires générées par l’IA dans les produits logiciels.
Les modèles d’IA générative formés sur des exemples de code en ligne contenant des erreurs entraîneront une erreur machine plutôt qu’une erreur humaine qui sera la cause des vulnérabilités logicielles.