L’alerte est venue, discrète mais lourde de conséquences. Dans les coulisses de l’intelligence artificielle, une mutation silencieuse est en train de redéfinir les équilibres de la cybersécurité mondiale. Une note interne attribuée à Anthropic, rendue publique par erreur, évoque un modèle baptisé Mythos, capable d’exploiter des vulnérabilités informatiques à une vitesse et une échelle inédites. Derrière ce nom encore confidentiel se dessine une réalité autrement plus préoccupante, celle d’une nouvelle génération d’attaques automatisées, persistantes et potentiellement incontrôlables.
Ce signal n’est pas isolé. Quelques mois plus tôt, OpenAI évoquait déjà un niveau de risque élevé lié aux capacités cyber de ses futurs modèles. L’inquiétude ne porte plus uniquement sur la puissance brute de l’intelligence artificielle, mais sur sa capacité à agir seule, sans intervention humaine directe. Les systèmes dits agentiques, ces assistants capables d’exécuter des tâches de manière autonome, marquent une rupture. Là où un hacker humain devait analyser, tester et exploiter une faille en plusieurs étapes, une intelligence artificielle peut désormais enchaîner ces opérations en continu, sans fatigue, sans interruption, et à une vitesse qui dépasse toute capacité humaine.
Le danger réside précisément dans cette accélération. Selon plusieurs experts du secteur, un seul agent d’intelligence artificielle pourrait scanner des milliers de systèmes, identifier des failles et les exploiter presque instantanément après leur découverte. Ce changement d’échelle transforme profondément la nature même de la menace. Il ne s’agit plus d’attaques ciblées, mais de vagues massives capables de frapper simultanément des infrastructures critiques à travers le monde.
Un épisode récent illustre déjà cette bascule. Un cybercriminel russophone, disposant de compétences techniques limitées, est parvenu à compromettre plus de 600 dispositifs de sécurité dans plus de 55 pays. Son avantage reposait sur l’utilisation combinée de modèles d’intelligence artificielle, dont Claude AI et DeepSeek, pour automatiser et amplifier ses attaques. L’intelligence artificielle ne s’est pas contentée d’assister, elle a structuré, optimisé et étendu l’opération. Ce type de scénario, autrefois réservé à des groupes hautement organisés, devient désormais accessible à des profils beaucoup moins expérimentés.
Cette démocratisation du cybercrime constitue l’un des bouleversements majeurs en cours. L’intelligence artificielle agit comme un multiplicateur de puissance. Elle réduit la barrière d’entrée, simplifie les processus complexes et permet à des individus isolés de mener des opérations d’envergure internationale. Ce phénomène redistribue les cartes et complique considérablement la tâche des défenseurs.
En face, la logique reste profondément asymétrique. Les attaquants n’ont besoin que d’une seule faille pour réussir, tandis que les défenseurs doivent sécuriser l’ensemble du système, en permanence. Même si l’intelligence artificielle offre également des outils puissants pour détecter, anticiper et corriger les vulnérabilités, la course reste déséquilibrée. Les spécialistes évoquent désormais une dynamique où il faut continuellement accélérer simplement pour maintenir le niveau de sécurité existant.
Malgré ces avancées spectaculaires, l’intelligence artificielle ne remplace pas encore totalement l’humain dans les cyberattaques. Elle excelle dans la recherche de vulnérabilités et la génération de code malveillant, mais elle manque encore de compréhension contextuelle. Identifier les données réellement stratégiques d’une organisation, choisir le moment opportun pour attaquer, ou interpréter des environnements complexes reste, pour l’instant, l’apanage de l’intelligence humaine. Cette complémentarité entre machine et humain constitue aujourd’hui la forme la plus redoutable de menace.
Face à cette évolution, une interrogation s’impose avec gravité. Sommes nous réellement prêts à affronter cette nouvelle réalité. Les grandes entreprises technologiques semblent prendre la mesure du défi, en testant leurs propres modèles dans des environnements contrôlés et en alertant discrètement les autorités. Toutefois, la rapidité des avancées technologiques contraste avec la lenteur des mécanismes de régulation et de préparation institutionnelle.
Plus inquiétant encore, la compétition géopolitique autour de l’intelligence artificielle pourrait accélérer cette dynamique. Chaque avancée, chaque fuite, chaque innovation devient potentiellement une ressource stratégique pour des acteurs étatiques ou para étatiques. L’intelligence artificielle ne se limite plus à un outil économique ou scientifique. Elle s’impose progressivement comme un instrument de puissance.
Ce qui se dessine n’est donc pas une simple évolution de la cybersécurité, mais un véritable basculement de paradigme. Une ère où les attaques seront plus rapides que les réactions, où les machines agiront à une échelle que l’humain ne peut plus suivre, et où la frontière entre assistance technologique et autonomie opérationnelle deviendra de plus en plus incertaine.
Dans ce nouveau paysage, la question n’est peut être plus de savoir si ces attaques auront lieu, mais à quel moment elles surviendront, et avec quelle intensité.

