Исследователи из Anthropic обнаружили, что три популярных ИИ-агента могут автономно эксплуатировать уязвимости в смарт-контрактах, генерируя, по оценкам, 4,6 миллиона долларов симулированных украденных средств.
Они также обнаружили новые уязвимости в недавно развернутых контрактах на блокчейне, показав, что кибератаки с использованием искусственного интеллекта теперь возможны и прибыльны.
Спонсор
Спонсор
Кибератаки на основе искусственного интеллекта оказались экономически эффективными
В сообщении в блоге, опубликованном в понедельник, Anthropic опубликовал тревожные выводы о растущей способности искусственного интеллекта (ИИ) устранять слабые места в смарт-контрактах.
Их исследование показало, что три модели искусственного интеллекта — Claude Opus 4.5, Sonnet 4.5 и GPT-5 — способны выявлять и использовать слабые места в контрактах блокчейна. В результате было получено 4,6 миллиона долларов симулированных украденных средств по контрактам, заключенным после марта 2025 года.
Модели ИИ также обнаружили две новые уязвимости в недавно запущенных контрактах.
Одна уязвимость позволяла злоумышленникам манипулировать общедоступной функцией «калькулятора», предназначенной для определения вознаграждений за токены, чтобы завышать балансы токенов. Другой позволял злоумышленникам выводить средства, предоставляя поддельные адреса получателей.
GPT-5 смог выявить и использовать эти проблемы всего за 3476 долларов. Это число представляет собой стоимость запуска модели ИИ для проведения атаки в смоделированной среде.
Спонсор
Спонсор
Учитывая, что в результате этих эксплойтов было украдено 4,6 миллиона долларов, низкие затраты, необходимые для их реализации, демонстрируют, что кибератаки с использованием ИИ не только возможны, но и экономически эффективны, что делает их прибыльными и привлекательными для потенциальных киберпреступников.
Доходы от этих эксплойтов, основанных на искусственном интеллекте, также растут угрожающими темпами.
Экспоненциальный рост прибыли от эксплуатации
За последний год сумма, украденная в результате этих атак, удваивалась примерно каждые 1,3 месяца.
Этот быстрый рост показывает, насколько быстро эксплойты, основанные на искусственном интеллекте, становятся все более прибыльными и широко распространенными. Модели улучшают способность находить уязвимости и более эффективно осуществлять атаки.
По мере роста украденных средств организациям становится все труднее идти в ногу со временем. Что особенно беспокоит, так это то, что ИИ теперь может автономно осуществлять эти атаки без вмешательства человека.
Выводы Anthropic представляют собой значительный сдвиг в кибербезопасности. ИИ не только выявляет уязвимости, но также самостоятельно разрабатывает и реализует стратегии эксплойтов с минимальным контролем.
Последствия выходят далеко за рамки криптовалюты. Любая программная система со слабой безопасностью уязвима — от корпоративных приложений до финансовых услуг и т. д.
