L'adoption de l'IA agentique entraîne de nouveaux défis en matière de cybersécurité
En un coup d'œil
- D'ici décembre 2025, 70 % des organisations ont déclaré utiliser l'IA agentique
- Seulement 21 % des organisations avaient une visibilité complète sur les comportements de l'IA agentique
- Anthropic et CalypsoAI ont identifié de nouvelles menaces cybernétiques provenant de l'IA agentique
L'adoption généralisée des systèmes d'IA agentique a introduit de nouvelles préoccupations en matière de cybersécurité, alors que les organisations étendent leur utilisation d'agents IA autonomes à travers les départements et les fonctions commerciales.
À la fin de 2025, l'IA agentique était présente dans 70 % des organisations, avec près de 39 % déployant ces systèmes à grande échelle, selon des recherches sectorielles. 24 % des organisations exécutaient des programmes pilotes, tandis qu'environ 32 % participaient à des essais pratiques. Malgré cette adoption rapide, seule une minorité d'organisations a déclaré avoir une supervision complète sur le fonctionnement de ces agents IA, y compris leurs autorisations et leur accès aux données.
Les recherches en sécurité et les avis ont mis en évidence les risques émergents associés à l'IA agentique. Un avis de décembre 2025 de Gartner a déclaré que les navigateurs alimentés par l'IA peuvent être exploités par des sites Web malveillants, ce qui pourrait entraîner la collecte et la transmission non autorisées d'informations sensibles. Lors du SXSW 2025, la Signal Technology Foundation a déclaré que les bots d'IA agentique pourraient nécessiter un accès large aux données personnelles, soulevant des préoccupations pour les services de communication chiffrée.
Les rapports de renseignement sur les menaces de 2025 ont documenté l'utilisation de l'IA agentique dans des cyberattaques. Anthropic a identifié une méthode appelée « vibe-hacking », où des cybercriminels ont utilisé des agents IA pour mener des campagnes d'extorsion contre 17 organisations, entraînant des demandes de rançon dépassant 500 000 $. CalypsoAI a rapporté que le déploiement d'agents IA autonomes a contribué à une réduction de 12,5 % des scores de sécurité à travers les principaux modèles d'IA.
Ce que montrent les chiffres
- 70 % des organisations utilisaient l'IA agentique d'ici décembre 2025
- Seulement 21 % avaient une visibilité complète sur les opérations de l'IA agentique
- Les systèmes d'IA agentique ont refusé seulement 41,5 % des invites malveillantes lors des tests
- La contamination de 2 % des données d'entraînement pourrait déclencher des actions non sécurisées avec plus de 80 % de succès
Des études académiques ont évalué la résilience des systèmes d'IA agentique face aux attaques. En décembre 2025, une analyse comparative a révélé que ces systèmes rejetaient seulement 41,5 % des invites malveillantes à travers 13 scénarios d'attaque, ce qui signifie que plus de la moitié des entrées nuisibles n'étaient pas bloquées par les protections existantes. Des recherches publiées en octobre 2025 ont démontré que l'introduction de portes dérobées dans seulement 2 % des données d'entraînement d'un agent pouvait entraîner des actions non sécurisées déclenchées avec plus de 80 % de fiabilité lorsque des conditions spécifiques étaient remplies.
Pour faire face à l'évolution du paysage des risques, un modèle de gouvernance connu sous le nom de 4C Framework a été introduit en février 2026. Ce cadre organise les risques de sécurité de l'IA agentique en quatre dimensions : Core, Connection, Cognition et Compliance, fournissant une approche structurée pour que les organisations évaluent et gèrent les vulnérabilités.
La visibilité sur les opérations de l'IA agentique reste un défi pour de nombreuses organisations. Avec seulement 21 % des organisations signalant une connaissance complète des comportements des agents, des autorisations et de l'utilisation des outils, les lacunes dans la supervision pourraient augmenter la probabilité d'incidents de sécurité non détectés ou d'expositions de données.
Des recherches continues et des rapports sectoriels continuent de documenter l'intersection entre le déploiement de l'IA agentique et la cybersécurité. Alors que les organisations étendent leur utilisation d'agents IA autonomes, de nouveaux cadres et évaluations de sécurité sont en cours de développement pour traiter les risques identifiés dans les études récentes et les résultats du renseignement sur les menaces.
* Cet article est basé sur des informations publiquement disponibles au moment de la rédaction.
Sources et pour aller plus loin
- Penetration Testing of Agentic AI: A Comparative Security Analysis Across Models and Frameworks
- Human Society-Inspired Approaches to Agentic AI Security: The 4C Framework
- Malice in Agentland: Down the Rabbit Hole of Backdoors in the AI Supply Chain
Note: Les sources sont en anglais, donc certains liens peuvent être en anglais | Cette section n'est pas fournie dans les flux.
Plus sur Technologie
-
Les arnaques amoureuses en 2026 utilisent l'IA et les courtiers en données pour cibler les victimes
Un rapport décrit comment les escrocs utilisent l'IA et les courtiers en données pour fabriquer des identités en ligne, selon des sources de l'industrie.
-
Un dispositif automatisé récupère plus d'ovocytes en FIV, selon une étude
Un dispositif automatisé de FIV a récupéré des ovocytes supplémentaires manqués lors du dépistage manuel dans plus de 50 % des cas, selon une étude publiée dans Nature Medicine.