Искусственный интеллект — это мощный инструмент, который не только борется с киберугрозами, но и становится орудием для их создания. Более 85% лидеров в области кибербезопасности заявляют, что мошенники все чаще пользуются уязвимостями в системах безопасности для взломов данных организаций и пользователей с помощью генеративного ИИ. Как не попасться на уловки хакеров помог разобраться Дмитрий Хомутов, директор компании Ideco.
Какие угрозы могут представлять генеративные AI для защиты данных
Внедрение искусственного интеллекта в сферу кибербезопасности становится актуальным, поскольку киберугрозы продолжают стремительно развиваться. Более 71% специалистов полагают, что нейросети будут активно использоваться для создания мощных атак как минимум в ближайшие 3 года.
Одна из основных угроз, которую представляют генеративные AI уже сейчас — создание фейковых фотографий, видео и аудиозаписей. Такие дипфейки, как правило, используются для фальсификации чьей-то личности и распространения недостоверной информации. Только за 2023 год количество “поддельного контента” увеличилось более чем в 10 раз, а 70% людей не смогли с точностью определить подлинность сообщений. С помощью фальшивых материалов хакеры дискредитируют и шантажируют жертву: в результате подобных атак более 77% пользователей потерпели финансовые потери. Например, в феврале 2024 года злоумышленникам удалось украсть 25,6 миллионов долларов после дипфейк-созвона. Они выбрали сотрудника, который обладает доступом ко всем счетам компании, и притворились финдиректором организации для получения денег организации.
Кроме того, AI применяются для распространения поддельных новостей, блогов и статей. За 2023 год количество веб-сайтов, на которых размещаются ложные материалы, сгенерированные искусственным интеллектом, увеличилось более чем на 1000%. Изначально такие мошеннические операции проводились хорошо скоординированной группой или организацией, однако сейчас нейросети позволяют генерировать фейковый контент практически любому человеку. Стремительно распространяющаяся дезинформация влечет хаос в сети, что особенно актуально в период насущных проблем, когда влияние на общественное мнение имеет большое значение.
Наравне с фейковыми новостями, популярность набирают поддельные сообщения, созданные с помощью ИИ. Только в России каждый день рассылается более 1 миллиона электронных писем с подозрительным или даже вредоносным содержимым. За 2023 год фишинговые AI-рассылки обманным путем заставили 65% пользователей раскрыть личную информацию. Более того, 21% из получивших e-mail кликнули на вредоносную ссылку и дали злоумышленникам полный доступ к своему устройству, не подозревая об этом. В настоящий момент более 37% пользователей уверены, что ожидается скачок инновационных фишинговых атак, поэтому не стоит как-либо реагировать на попытку мошенников связаться с вами.
Также искусственный интеллект представляет угрозу для защиты данных предприятия, так как с их помощью можно взломать системы безопасности. Нейросети используются для перебора паролей или для обхода методов аутентификации, давая злоумышленникам доступ к конфиденциальной информации компании. Существуют специальные AI программы, которые эффективны в 100% случаев, если ваша учетная запись когда-либо была подвержена утечке из базы данных. Всего за 60 секунд мошенники получают полный контроль над всеми материалами. Рекомендуется регулярно менять коды доступа и не ставить типичные комбинации, например, «12345» или дату своего рождения.
Однако генеративный искусственный интеллект способен обходить и биометрические методы аутентификации. С помощью нейросетей возможно обмануть идентификатор лица или создать фальшивые отпечатки пальцев. Так, например, считыватели отпечатков могут быть настроены с учетом различных уровней безопасности. При умеренных условиях фальшивые биометрические следы совпадали с 20% учетных записей на различных платформах. В среднем у такой технологии в 30 раз больше совпадений, чем у реального отпечатка — даже при самых высоких настройках безопасности.
Еще с начала 2000-х годов, когда не существовало биометрии, хакеры пользовались “лазейками” в системах безопасности для получения выгоды и перехвата важной информации, которая подвергает риску ваши финансы. С развитием технологий мошенники стали использовать совершенные методы кражи информации в диджитал среде. Искусственный интеллект применяется в 95% случаев при атаке на банковские организации. Кибератаки на американские финансовые организации с использованием AI происходят каждые 39 секунд и обходятся владельцам банков в 6,9 млрд долларов ежегодно. Одним из примеров крупной ИИ-атаки является взлом банковского учреждения в Объединенных Арабских Эмиратах в 2022 году. Тогда злоумышленникам удалось украсть более 1 млрд долларов с помощью алгоритмов нейросети. Этот инцидент вызвал обеспокоенность по поводу меняющегося характера киберпреступности и необходимости внедрять новые и более надежные способы защиты.
Как генеративные AI могут помочь в предотвращении кибератак
Несмотря на то, что нейросети могут использоваться для взлома данных компании, они все еще остаются мощным инструментом в предотвращении кибератак. Более 71% специалистов по кибербезопасности полагают, что искусственный интеллект имеет решающее значение в борьбе с уязвимостями систем безопасности организации.
Одно из ключевых преимуществ нейросетей в анализе киберугроз – их способность обрабатывать огромные объёмы данных в режиме реального времени. AI справляется с этим быстрее ручного метода на 98%, что значительно повышает эффективность работы специалистов по информационной безопасности. Более того, используя алгоритмы машинного обучения, ИИ может выявлять аномалии и предсказывать потенциальные уязвимости. Так, компании всегда будут на шаг впереди киберпреступников.
Однако для достижения такого результата необходимо разработать улучшенные алгоритмы обучения AI с учетом его возможных уязвимостей, что сделает модель надежнее на 87%. Следует также “тренировать” нейросеть: давать ей справляться с искусственно созданными кибератаками для улучшения работы алгоритма. Так возможно снизить число взломов более чем на 84%. Кроме того, необходимо постоянно обновлять ПО, чтобы сократить количество уязвимостей более чем на 90%.
Технологии генеративного искусственного интеллекта также применяются для создания инновационных систем обнаружения кибератак. Например, нейронные сети могут анализировать огромные массивы данных о предыдущих атаках. С помощью AI выявляются определенные шаблоны, на основе которых будут предотвращены будущие угрозы. Более того, последнее время популярность набирают боты на базе искусственного интеллекта. Подобную технологию внедрили уже более 50% компаний по всему миру. AI-боты работают в режиме реального времени, сканируя сеть на предмет несанкционированного доступа и немедленно принимая меры по блокировке в случае обнаружения аномалий.
Симбиоз генеративных AI и экспертов по информационной безопасности дает возможность создать интегрированные системы защиты, которые способны обнаруживать и реагировать на угрозы в реальном времени. Это позволяет компаниям быть на шаг впереди мошенников и минимизировать потенциальные убытки. Уже сейчас более 50% организаций активно полагаются на инструменты кибербезопасности на основе нейросетей. К 2025 году мировой рынок искусственного интеллекта в сфере кибербезопасности достигнет 38,2 млрд долларов.
В будущем AI может помочь в разработке более надежных систем безопасности, способных автоматически обнаруживать и предотвращать кибератаки. Последующее развитие искусственного интеллекта позволит компаниям улучшить обеспечение защиты информации и данных, что станет ключевым фактором успеха в современном цифровом мире.
Больше на Онлайн журнал sololaki
Subscribe to get the latest posts sent to your email.