После публичной ссоры между Anthropic и Военным министерством США в конце прошлой недели, в ходе которой первое отказалось снять гарантии, препятствующие использованию ее инструментов искусственного интеллекта для автономного вооружения и целей массового наблюдения, OpenAI вмешалась в вакуум, заключив сделку по использованию собственных инструментов искусственного интеллекта в системах вооруженных сил США.
Однако после достижения соглашения с Пентагоном в пятницу генеральный директор OpenAI Сэм Альтман объявил, что его компания внесет поправки в формулировки, используемые в соглашении (через BBC News). В заявлении, опубликованном на X, Альтман, похоже, сожалеет о том, что так быстро присоединился к нему, на фоне значительной негативной реакции на предыдущие условия.
Вот повтор внутреннего сообщения: Мы работали с Министерством обороны США над внесением некоторых дополнений в наше соглашение, чтобы сделать наши принципы более ясными. Мы собираемся внести поправки в наше соглашение, добавив в дополнение ко всему прочему следующую формулировку: «• В соответствии с действующим законодательством…3 марта 2026 г.
«Я думаю, что сделал одну ошибку: нам не следовало торопиться с публикацией этого в пятницу», — сказал Альтман. «Проблемы очень сложны и требуют четкого общения».
Язык, который Альтман хочет изменить, вращается вокруг проблем внутренней массовой слежки. Ссылаясь на Четвертой поправки к Конституции США и Закона о национальной безопасности 1947 года новые условия сводятся к следующему:
«Система искусственного интеллекта не должна намеренно использоваться для внутреннего наблюдения за лицами и гражданами США», — говорится в заявлении. «Во избежание сомнений, министерство понимает, что это ограничение запрещает преднамеренное отслеживание, наблюдение или мониторинг лиц или граждан США, в том числе посредством приобретения или использования коммерчески приобретенной личной или идентифицируемой информации».
«Очень важно защищать гражданские свободы американцев, и этому было уделено столько внимания, что мы хотели сделать этот момент особенно ясным», — говорит Альтман, хотя затем уточняет, что «как и все, что мы делаем при итеративном развертывании, мы будем продолжать учиться и совершенствоваться по ходу дела».
Альтман также говорит, что военное министерство подтвердило, что услуги OpenAI не будут использоваться американскими спецслужбами, такими как АНБ, и что OpenAI «хочет (ы) работать в рамках демократических процессов».
«Ключевые решения об обществе должно принимать правительство», — продолжает Альтман. «Мы хотим иметь право голоса и место за столом, где мы можем делиться своим опытом и бороться за принципы свободы. Но мы четко понимаем, как работает система (потому что многие люди спрашивали, если бы я получил то, что, по моему мнению, было неконституционным приказом, я, конечно, скорее пошел бы в тюрьму, чем выполнил бы его)».
Однако предпоследний тезис Альтмана, пожалуй, самый интересный. «Есть много вещей, к которым технология просто не готова, и во многих областях мы еще не понимаем компромиссы, необходимые для безопасности. Мы будем работать над этим, медленно, с помощью Министерства обороны, с помощью технических мер безопасности и других методов».
В обновленном заявлении на веб-сайте OpenAI (которое перекликается со многими замечаниями Альтмана в его предыдущей публикации) линии прорисованы немного более четко:
«У нас есть три основные красные линии, которыми мы руководствуемся в работе с Министерством обороны, и которые обычно разделяют несколько других пограничных лабораторий», — говорят в компании. «Никакого использования технологии OpenAI для массового внутреннего наблюдения. Никакого использования технологии OpenAI для управления автономными системами вооружения. Никакого использования технологии OpenAI для автоматизированных решений с высокими ставками (например, таких систем, как «социальный кредит»)».
Это кажется подозрительно близким к тем же пунктам, на которых настаивал Anthropic, и к тем, которые, по всей видимости, в результате обошлись компании в правительственный контракт на 200 миллионов долларов.
Тем не менее, OpenAI по-прежнему заявляет, что, по ее мнению, «в нашем соглашении больше ограничений, чем в любом предыдущем соглашении о секретном развертывании ИИ», и что «мы защищаем наши красные линии с помощью более обширного, многоуровневого подхода. Мы сохраняем полную свободу действий в отношении нашего стека безопасности, мы развертываем через облако, проверенный персонал OpenAI находится в курсе, и у нас есть надежная договорная защита».
Из-за этих, казалось бы, изменений, произошедших в последнюю минуту, Альтман выглядит несколько раскаивающимся. Подводя итог пятому и последнему пункту своего предыдущего поста X, генеральный директор OpenAI сказал:
«Мы искренне пытались деэскалировать ситуацию и избежать гораздо худшего результата, но я думаю, что это выглядело просто оппортунистически и небрежно. (Это был) хороший опыт для меня, поскольку в будущем нам придется принимать решения с более высокими ставками».
По крайней мере, это опыт публичного обучения. Сообщается, что количество удалений ChatGPT выросло на 295% после объявления первоначального соглашения, и пользователи, похоже, плохо отреагировали на идею, что их любимый инструмент искусственного интеллекта прыгнет в постель с военным министерством США. На момент написания самый популярный комментарий к X-посту Альтмана выглядел следующим образом:
«Никакие меры по устранению ущерба не исправят тот непоправимый вред, который ты нанес своему бренду на этой неделе. Все кончено, Сэм».
Время покажет, я полагаю.
Лучший игровой комплект для ПК 2026 года


