Ce que j'ai vérifié
Je me suis plongé dans les synthèses d'avril et j'ai vite reconnu un problème familier : les chiffres circulent plus vite que les analyses post-mortem. Les incidents majeurs étaient réels, notamment Kelp DAO et Drift, et les dommages totaux ont bien dépassé les 600 millions de dollars. Cependant, la liste issue de la discussion ne correspondait pas toujours aux noms et montants confirmés, et l'histoire des hackers IA en masse reste plus une hypothèse qu'un fait avéré.
Par exemple, il était question de Aftermath Protocol, et non d'Aftermath Finance. Pour Kelp DAO, l'analyse publique a révélé une compromission de l'infrastructure, une attaque DDoS et une faille dans le schéma de vérification des messages du bridge. On est loin de l'idée romantique d'un "contrat intelligent qui s'est trompé d'un seul require", mais face à un piratage multicouche classique qui vise à la fois l'infrastructure et les hypothèses de confiance.
Dans ce contexte, je ne me concentre pas sur le battage médiatique, mais sur l'AI implementation dans la défense. Même si les agents IA n'ont pas été confirmés dans ces cas précis, le coût de la reconnaissance de masse est en chute libre. Trouver un RPC faible, une mauvaise configuration, un rôle d'administrateur suspect ou une logique d'oracle défaillante est désormais beaucoup plus rapide qu'il y a un an.
Voici ce qui me dérange : le marché conçoit encore des protocoles comme si les attaquants travaillaient manuellement et dormaient la nuit. Mais un attaquant peut très bien ne plus dormir du tout.
Ce que cela change pour les entreprises et l'automatisation
La première conséquence est simple : l'audit de sécurité manuel ne suffit plus comme seule couche de défense. Si vous gérez un bridge, un protocole de prêt, de staking ou une infrastructure de portefeuille, vous avez besoin d'une AI automation continue pour détecter les anomalies dans les droits d'accès, les configurations, les flux on-chain et les changements DevOps.
Deuxièmement, les gagnants sont les équipes qui intègrent la sécurité dans l'AI architecture de leur produit, pas celles qui la rajoutent après un incident. Les perdants sont ceux qui fondent des hypothèses critiques sur un seul vérificateur, une seule clé, un seul fournisseur RPC ou une seule personne ayant un accès.
Et troisièmement, un bug bounty de "merci et 2000$" ressemble maintenant presque à une insulte. Si le marché ne paie pas les chercheurs éthiques, d'autres monétiseront les vulnérabilités.
Je le constate également dans les projets de mes clients : la sécurité ne peut plus être dissociée de l'automatisation, car l'attaquant comme le défenseur y ont accès. Si vous avez un produit DeFi, un portefeuille ou une intégration Web3 à haut risque, nous pouvons analyser systématiquement votre architecture et mettre en place un périmètre de surveillance adéquat. Chez Nahornyi AI Lab, c'est exactement ce que nous faisons en pratique : du développement de solutions IA pour les pipelines de détection à l'intégration ciblée d'IA dans les processus existants, afin que votre entreprise n'ait pas à attendre son propre post-mortem.