Вопрос о том, на каких моделях данных ИИ обучаются, и о легитимности этих данных, является непростым. В прошлом году Anthropic пришлось защищать использование материалов, защищенных авторским правом, для обучения своего Claude AI в США, и это дело в конечном итоге привело к постановлению, что защищенный авторским правом парсинг подпадает под привилегии добросовестного использования.
Однако в конечном итоге компания согласилась выплатить компенсацию в размере 1,5 миллиарда долларов в отношении претензий о пиратстве копий нескольких произведений автора. Я упоминаю об этом, потому что Anthropic недавно обратился в X с жалобой на «атаки дистилляции промышленного масштаба» на Клода, совершенные, по их словам, более чем «24 000 мошеннических учетных записей», которые произвели более 16 миллионов обменов с чат-ботом с искусственным интеллектом, тем самым «извлекая его возможности для обучения и улучшения своей собственной модели».
Мы выявили атаки дистилляции промышленного масштаба на наши модели со стороны DeepSeek, Moonshot AI и MiniMax. Эти лаборатории создали более 24 000 мошеннических учетных записей и произвели более 16 миллионов обменов с Claude, используя его возможности для обучения и улучшения своих собственных моделей.23 февраля 2026 г.
Чего, с точки зрения Anthropic, на самом деле нет. В нем указаны DeepSeek, Moonshot AI и MiniMax как виновники атак, и, хотя в нем говорится, что «перегонка может быть законной», он также заявляет: «Иностранные лаборатории, которые незаконно перерабатывают американские модели, могут снять меры безопасности, передавая возможности моделей в свои собственные военные, разведывательные системы и системы наблюдения».
Я имею в виду, разве вы не тренируете свои модели таким же образом, поглощая половину Интернета?23 февраля 2026 г.
В следующем сообщении Anthropic сообщает: «Эти атаки становятся все более интенсивными и изощренными. Для борьбы с ними потребуются быстрые и скоординированные действия игроков отрасли, политиков и более широкого сообщества ИИ», прежде чем дать ссылку на новостной пост по этой теме.
В сообщении более подробно рассказывается об обнаружении атак, а также говорится, что Anthropic смогла с высокой степенью уверенности отнести «каждую кампанию к конкретной лаборатории посредством корреляции IP-адресов, запроса метаданных, показателей инфраструктуры и, в некоторых случаях, подтверждения от отраслевых партнеров».
Что, как отмечает пользователь X AntonLaVay, похоже на громкое заявление Anthropic о том, что он может относительно легко деанонимизировать своих пользователей. Возможно, это вопрос, связанный с конфиденциальностью, для другого разговора.
В то же время, похоже, что, хотя Anthropic вполне справляется с обучением своих собственных моделей на данных, защищенных авторским правом, другие компании, использующие работу Anthropic для обучения своих собственных моделей, представляют собой серьезную проблему.
И хотя иностранная военная тема, безусловно, интересна, у меня такое чувство, что она может не вызвать такой же симпатии, как та, которая проявляется к частным лицам, утверждающим, что их работа была включена в чудовище Клода ИИ. Просто мысль.
Лучший игровой комплект для ПК 2026 года


