Face à un attaquant infatigable, vos défenses tiendront-elles?
EXPERT INVITÉ. Le modèle d’intelligence artificielle avancé Claude Mythos, développé par Anthropic pour des usages poussés en cybersécurité, n’a pas seulement fait parler de lui depuis son dévoilement la semaine dernière. Il a surtout envoyé un signal très clair au marché: l’IA ne progresse plus seulement à grande vitesse en cybersécurité, elle est en train de changer brutalement d’échelle.
En novembre 2024, je vous parlais de Google DeepMind, qui avait réussi à repérer des vulnérabilités jusque-là inconnues. Ce qui apparaissait alors comme un exploit exceptionnel est déjà en voie de devenir une normalité.
Nous ne parlons plus ici de simples assistants numériques intelligents. Avec les bonnes couches d’orchestration, l’IA peut désormais analyser des environnements complexes, détecter des vulnérabilités subtiles, suggérer des voies d’exploitation plausibles et accélérer l’exfiltration de données sensibles.
En réservant Claude Mythos à un cercle restreint d’utilisateurs, Anthropic reconnaît implicitement qu’un accès généralisé à ce type de capacités pourrait entraîner des dommages importants. L’entreprise invoque la capacité du modèle en cybersécurité, mais cette prudence illustre surtout le niveau de risque que représenterait une diffusion trop large de telles technologies.
Soyons lucides: il y a aussi une part de marketing dans cette posture. Les modèles actuels sont déjà suffisamment puissants pour accomplir une grande partie de ce travail. Mais si cette annonce peut au moins avoir un effet utile, ce sera peut-être de secouer ceux qui continuent à croire qu’ils ont encore le luxe d’attendre.
Ce qui était hier réservé à quelques cyberattaquants d’élite devient déjà une capacité plus rapide, plus structurée et plus facile à industrialiser. Cela devient la normalité.
Le paradoxe, c’est que ces mêmes modèles qui rendent les attaques plus intelligentes et plus rapides sont aussi la seule chance de rattrapage pour les organisations à la traîne. Elles n’auront tout simplement plus le choix d’utiliser l’IA: pour prioriser les vulnérabilités, corréler les signaux faibles dans des journaux de bord qu’aucun humain ne lit vraiment et simuler des attaques contre leurs propres systèmes avant que d’autres ne le fassent pour de vrai.
Continuer à piloter sa posture de sécurité «à la main», avec des tableurs et des réunions mensuelles, face à des attaquants équipés d’outils d’analyse automatisée guidés par des modèles comme Claude Mythos, c’est accepter de creuser un fossé qui ne se refermera plus.
Quand un modèle devient un testeur infatigable
Les nouveaux modèles d’intelligence artificielle, accompagnés de la bonne couche d’orchestration, ne se contentent plus d’exploiter des concepts techniques de base. Ils peuvent maintenant analyser des milliers de lignes de code, reconstituer le fonctionnement d’une application et formuler des scénarios d’attaque crédibles, là où des experts humains........
