Резюме создано Smart Answers AI
В итоге:
- PCWorld сообщает, что Anthropic пересмотрела свою политику ответственного масштабирования, добавив спорную лазейку, позволяющую обучать опасные модели ИИ, если это делают конкуренты.
- Это изменение происходит на фоне давления Пентагона на доступ военных к моделям Anthropic, в то время как конкуренты, такие как OpenAI и xAI, уже достигли соглашений.
- Пересмотр политики потенциально ослабляет позицию Anthropic в области безопасности, несмотря на заявления компании о сохранении строгих обязательств по защите и прозрачности.
«Безопасность прежде всего» — вот мантра, которая сделала Anthropic уникальной среди крупных конкурентов в сфере ИИ.
Первоначально обещание компании звучало так: если Anthropic, производитель Клода, не сможет гарантировать, что новая модель будет соответствовать строгим стандартам безопасности, она прекратит обучение этой модели, даже если ее конкуренты прорвутся вперед.
Но в тот самый момент, когда Anthropic, казалось бы, больше всего нуждалась в своем обещании «безопасность прежде всего», а именно во время противостояния с Пентагоном, компания обнародовала пересмотренную политику, которая добавляет критическую лазейку.
Как впервые сообщило издание Time, версия 3.0 Политики ответственного масштабирования Anthropic отступает от предыдущего обещания компании, позволяя ей продолжать обучение потенциально опасных моделей, над которыми активно работают ее конкуренты.
Новая политика также включает в себя требования к большей прозрачности в отношении безопасности ИИ, а также обещание «отложить» разработку опасных моделей, если компания считает, что она уверенно опережает своих конкурентов.
Все это происходит в решающий момент для Anthropic, у которой в пятницу истекает крайний срок, чтобы согласиться на требование Пентагона о предоставлении широкого доступа к моделям Anthropic для военного использования.
Во время встречи в Пентагоне с генеральным директором Anthropic Дарио Амодеи во вторник министр обороны Пит Хегсет, как сообщается, пригрозил использовать Закон об оборонном производстве, чтобы заставить Anthropic передать свои модели, которые военные хотят использовать «в любых законных целях», как сообщает The New York Times.
Говорят, что Anthropic держится, требуя от Хегсета обещания, что Пентагон не будет использовать ее модели для «автономного оружия» или для шпионажа за американцами.
Но некоторые рассматривают пересмотренную политику ответственного масштабирования Anthropic как спасательный люк для нынешней ситуации, в которой она находится, позволяя компании потенциально уступить требованиям Пентагона, сохраняя при этом свою собственную политику безопасности. Стоит отметить, что контролируемые Илоном Маском компании xAI и OpenAI уже достигли соглашений с Пентагоном.
Со своей стороны, Anthropic отвергает идею о том, что пересмотренный RSP ослабил политику безопасности, утверждая вместо этого, что старые «красные линии» устарели, учитывая позицию правительства по невмешательству в отношении ИИ.
Предоставляя себе свободу продолжать обучение нестабильных моделей, которые активно разрабатывают другие, Anthropic сможет действовать как стабилизирующая сила, а не позволять более безрассудным компаниям стать лидерами отрасли искусственного интеллекта, говорят в Anthropic.
Возможно, и так, и, надеюсь, они правы. Тем не менее, тревожно видеть, как компания, занимающаяся искусственным интеллектом, которая всегда выступала за безопасность, переписывает свой собственный свод правил.


