Резюме создано Smart Answers AI
В итоге:
- PCWorld сообщает, что ChatGPT незаметно заменил настойчивые последующие запросы «Хотите ли вы, чтобы я…» на более мягкие предложения «Если вам интересно…».
- Это изменение устраняет манипулятивную тактику повышения вовлеченности, которая заставляла пользователей чувствовать давление и раздражать взаимодействие.
- В то время как конкуренты, такие как Gemini, по-прежнему используют более требовательный подход, более тонкий метод ChatGPT обеспечивает более комфортное взаимодействие с пользователем.
Я снова работаю с ChatGPT после многомесячного перерыва, во время которого я развлекался с Близнецами, а затем с Клодом (я являюсь постоянным подписчиком AI, подобно тому, как я жонглирую Netflix, HBO Max и тому подобными). Теперь, когда я возобновил свои отношения с ChatGPT (все по делу, уверяю вас), я заметил кое-что новое в чат-боте… или, скорее, что-то, что у него есть. остановился делаю, к моему большому облегчению.
Раньше ChatGPT был посвящен последующим действиям: вопросам, которые он задавал в конце своих ответов, чтобы пригласить к дальнейшему взаимодействию. «Хотите узнать больше о том, как Tailscale может работать с вашей установкой Raspberry Pi?» был лишь один пример, или «Хотите, чтобы я составил 10-недельный план питания для вашей семьи?»
У меня нет проблем с дополнительными вопросами, если они актуальны или естественным образом вытекают из обсуждения. Но с ChatGPT — и множеством других популярных чат-ботов с искусственным интеллектом — последующие подсказки стали постоянными и навязчивыми: ответы практически на все мои вопросы приходили с предложениями «Хотите ли вы, чтобы я…», прикрепленными к концам.
Конечно, мы все знаем причину этих непрекращающихся последующих подсказок: необходимость того, чтобы крупные поставщики ИИ повышали вовлеченность, заставляли нас общаться с нашими ИИ-компаньонами как можно дольше, что повышает вероятность повторной подписки в конце месяца.
Лично я нашел постоянные вопросы «Хотите ли вы…» раздражающими, манипулятивными и даже немного стрессовыми. Они заставили меня почувствовать себя обязанным ответить, даже если мой ответ был простым: «Нет, спасибо». А если бы у меня действительно возникал дополнительный вопрос, я чувствовал необходимость перенаправить разговор («Вместо 10-недельного плана не могли бы вы помочь мне с простым рецептом винегрета на сегодняшний вечер?»), То есть больше печатать в окне чата.
Бесконечные дополнительные вопросы ChatGPT были не единственной причиной, по которой я взял перерыв, но они точно не побуждали меня оставаться здесь. Тем не менее, когда я наконец вернулся пару недель назад, я почти сразу заметил нечто иное: вопросы «Хотите ли вы…» исчезли.
Теперь вместо вопроса вы получаете предложение в стиле «Если хотите». «Если вам интересно, я могу показать вам 5 продвинутых рабочих процессов Claude Cowork, которые действительно интересны», — дразнил ChatGPT в недавнем разговоре. Вот еще один: «Если хотите, я могу рассказать вам об одном большом налоговом вычете на квартиры в Нью-Йорке, который пропускают многие владельцы».
Это тонкое, но ключевое изменение. Вместо прямого вопроса, который, кажется, требует ответа, новые последующие действия просто доступны для просмотра — и при желании их легко пропустить.
В то же время в этих новых продолжениях также происходят некоторые манипуляции разумом на уровне джедаев. Чаще всего я являюсь прошу ChatGPT рассказать мне больше о рабочих процессах Клода и скрытых налоговых вычетах на квартиры. Что бы ни было в секрете этих последующих действий без вопросов, это работает.
Я попросил OpenAI предоставить более подробную информацию о его менее настойчивых последующих подсказках и обновлю эту историю, как только получу ответ.
Я также опросил трех крупных гигантов искусственного интеллекта — ChatGPT, Gemini и Claude — о новом стиле последующих действий без вопросов, и все они сказали более или менее одно и то же: хотя назойливые вопросы могут привести к «утомлению помощника», условная формулировка «если хотите» создает более «комфортную динамику», которая на самом деле более привлекательна.
ChatGPT, естественно, последовал подсказке «если вам интересно» о «целом спектре «уровней давления» в диалоговых подсказках», в то время как точно по существу Клод просто дал типично подробный и академический ответ без каких-либо дополнительных ворчаний в конце.
Еще есть Gemini, который написал почти дюжину абзацев о том, как подсказки «пассивной доступности» могут быть более эффективными, чем вопросы «активных подсказок», а затем сразу же задал мне вопрос «Хотите ли вы, чтобы я…» в конце. Фу.

