По мере того, как ИИ продолжает расти и проникать в повседневную жизнь, предполагаемый прирост производительности в некоторых местах действительно проявляется. Так уж получилось, что хакерские группы являются одним из таких мест, и служба анализа угроз Google перечислила некоторые из многих способов, которыми они его используют. Добро пожаловать в будущее.
В своем последнем отчете говорится: «В последнем квартале 2025 года группа Google Threat Intelligence Group (GTIG) наблюдала, как злоумышленники все чаще интегрируют искусственный интеллект (ИИ) для ускорения жизненного цикла атак, добиваясь повышения производительности в разведке, социальной инженерии и разработке вредоносных программ».
В нашем последнем отчете GTIG AI Threat Tracker показано, как злоумышленники интегрируют ИИ в свои операции. Мы подробно описываем спонсируемый государством фишинг LLM, вредоносные программы с поддержкой ИИ, такие как HONESTCUE, и растущую популярность атак с извлечением моделей. Прочтите отчет: pic.twitter.com/2KHXKnhpPq12 февраля 2026 г.
Один из таких методов использования ИИ — заставить хакеров выглядеть более авторитетными в разговоре. «Субъекты угроз все чаще используют LLM для создания гиперперсонализированных, учитывающих культурные нюансы приманок, которые могут отражать профессиональный тон целевой организации или местный язык».
Google заметил, что его также используют в фишинговых атаках для получения информации о потенциальных целях. «Эта деятельность подчеркивает сдвиг в сторону возможностей фишинга, дополненных искусственным интеллектом, где скорость и точность LLM могут обойти ручной труд, традиционно необходимый для профилирования жертв».
Это все, прежде чем упомянуть код, сгенерированный искусственным интеллектом: хакеры, такие как APT31, используют Gemini для автоматизации анализа уязвимостей и планируют протестировать указанные уязвимости. Он также обнаружил COINBAIT, фишинговый набор, маскирующийся под криптовалюту, «создание которого, вероятно, было ускорено с помощью инструментов генерации кода искусственного интеллекта».
Сообщается, что Google обнаружил вредоносное ПО, которое побуждает ИИ-ботов пользователей создавать код для генерации дополнительных вредоносных программ. Хотя это в основном доказательство концепции. Это усложнит отслеживание вредоносного ПО на компьютере, поскольку оно продолжает «мутировать».
Google заявляет: «Потенциал ИИ, особенно генеративного ИИ, огромен. По мере продвижения инноваций отрасль нуждается в стандартах безопасности для ответственного создания и внедрения ИИ».
Буквально на прошлой неделе мы видели фишинговую аферу, в которой ИИ используется для подделки руководителей компаний с целью получить доступ к криптовалюте жертвы. Похоже, что ИИ становится больше, чем просто инструментом в арсенале хакера, и остается надеяться, что контрагенты получат достаточно данных, чтобы противодействовать ему.
Лучшие игровые установки 2026 года


