Можно подумать, что OpenAI будет проявлять осторожность при заключении сделки с Пентагоном, в рамках которой ее модели ИИ будут использоваться в жизненно важных сценариях, подобных тем, которые мы наблюдаем сейчас в Иране.
Но, как мы узнали, первоначальное соглашение, которое OpenAI заключила с Министерством обороны в пятницу вечером, было срочной работой. С этим согласен даже генеральный директор Сэм Альтман.
«Нам не следовало торопиться обнародовать это в пятницу», — написал Альтман в программе X поздно вечером в понедельник, подробно описывая недавние изменения в контракте, которые конкретно запрещают использование его моделей для слежки за гражданами США.
«Проблемы очень сложны и требуют четкого общения», — продолжил Альтман. «Мы искренне пытались деэскалировать ситуацию и избежать гораздо худшего исхода, но я думаю, что это выглядело просто оппортунистически и небрежно. Для меня это хороший опыт, поскольку в будущем нам придется принимать решения с более высокими ставками».
Поспешная сделка OpenAI с военными, конечно же, вызвала массовую негативную реакцию против компании и ChatGPT, а также всплеск интереса к Anthropic (который с тех пор был назван министром обороны Питом Хегсетом «риском цепочки поставок») и конкурирующими моделями Claude. Anthropic вела напряженные споры с Министерством обороны по поводу требований военных о практически неограниченном использовании технологий искусственного интеллекта.
Я, конечно, согласен с Альтманом в том, что вопросы, связанные с контрактами между поставщиками ИИ и военными, являются, по его словам, «суперсложными», и да, пятничная сделка OpenAI действительно выглядела «оппортунистической и небрежной».
И да, люди совершают ошибки и учатся на них. Но сделка по ИИ с Пентагоном настолько высока, насколько это возможно, и совершенно неправильно относиться к этому небрежно.
Я обратился к OpenAI за комментариями и обновлю эту историю, как только они ответят.
Поспешное соглашение OpenAI с Пентагоном также поднимает вопрос о том, с чем еще он, возможно, справился небрежно – и это возвращает дискуссию к нам, обычным пользователям ChatGPT (или, все чаще, к бывшим пользователям).
Когда мы используем ИИ, будь то модели ChatGPT или чьи-то еще, мы должны доверять ему в той или иной степени. Мы доверяем ему наши имена, местонахождение, должности, семейные данные и, возможно, даже наши финансы. Он может знать, кто наши друзья и чем мы интересуемся.
Поставщики ИИ должны серьезно отнестись к этим узам доверия, возможно, даже за счет скоротечной сделки.
Те из нас, кто использует ИИ каждый день, должны тщательно учитывать поставщиков, с которыми мы имеем дело, что они нам обещают и как они себя ведут.


