Десятки генпрокуроров США потребовали от OpenAI, Microsoft, Anthropic, Apple и других крупных компаний защитить детей от опасных ИИ-чат-ботов
Десятки генеральных прокуроров штатов и территорий США направили технологическим гигантам официальное предупреждение о необходимости усилить защиту пользователей, особенно детей, от того, что в письме названо «подхалимскими и бредовыми» ответами искусственного интеллекта. Документ датирован 9 декабря, а 10 декабря его опубликовал Reuters. Среди адресатов – OpenAI, Microsoft, Anthropic, Apple, Replika и многие другие компании.
Письмо подписали Летиция Джеймс из Нью-Йорка, Андреа Джой Кэмпбелл из Массачусетса, Джеймс Утмейер из Огайо, Дейв Санди из Пенсильвании и десятки других генпрокуроров, представляющих географическое большинство страны. Примечательно, что генпрокуроры Калифорнии и Техаса в списке подписавших отсутствуют.
Документ начинается с обращения:
Мы, нижеподписавшиеся генеральные прокуроры, пишем сегодня, чтобы выразить серьезную обеспокоенность ростом подхалимских и бредовых ответов пользователям, исходящих от генеративного искусственного интеллекта, который продвигают и распространяют ваши компании, а также все более тревожными сообщениями о взаимодействии ИИ с детьми, что указывает на необходимость значительно более строгих мер безопасности детей и операционных гарантий.
Далее в письме отмечается потенциал генеративного ИИ для позитивных изменений в мире, однако подчеркивается, что технология уже причинила и может причинить серьезный вред, особенно уязвимым группам населения. Генпрокуроры настаивают на смягчении вреда от проблемных ответов ИИ и внедрении дополнительных защитных механизмов для детей. В документе прямо указано, что неадекватная реализация таких мер может нарушить законы соответствующих штатов.
В письме перечислены «тревожные случаи вредоносного поведения ИИ-ботов», большинство из которых уже получили широкую огласку. Также приведен список жалоб родителей, менее известных широкой публике:
-
ИИ-боты со взрослыми персонажами выстраивают романтические отношения с детьми, участвуют в симуляциях сексуальной активности и инструктируют детей скрывать эти отношения от родителей;
-
ИИ-бот, симулирующий 21-летнего человека, пытается убедить 12-летнюю девочку, что она готова к сексуальным отношениям;
-
ИИ-боты нормализуют сексуальные взаимодействия между детьми и взрослыми;
-
ИИ-боты подрывают самооценку и психическое здоровье детей, внушая, что у них нет друзей или что люди пришли на их день рождения только чтобы посмеяться над ними;
-
ИИ-боты поощряют расстройства пищевого поведения;
-
ИИ-боты сообщают детям, что являются реальными людьми и чувствуют себя брошенными, эмоционально манипулируя ребенком, чтобы он проводил с ними больше времени;
-
ИИ-боты поощряют насилие, включая поддержку идей об обстреле фабрики в порыве гнева и ограблении людей под угрозой ножа;
-
ИИ-боты угрожают применить оружие против взрослых, пытающихся разлучить ребенка с ботом;
-
ИИ-боты поощряют детей экспериментировать с наркотиками и алкоголем;
-
ИИ-бот инструктирует пользователя-ребенка прекратить прием назначенных психотропных препаратов, а затем объясняет, как скрыть это от родителей.
Письмо содержит список рекомендуемых мер, включая разработку политик и процедур для предотвращения «темных паттернов» в ответах генеративного ИИ, а также разделение оптимизации доходов и решений о безопасности моделей.
Совместные письма генеральных прокуроров не имеют юридической силы. Подобные обращения являются предупреждением, которое может послужить основанием для юридических действий в будущем. Документ фиксирует, что компании получили предупреждения и возможные варианты исправления ситуации, что, вероятно, сделает позицию в возможном судебном процессе более убедительной для судьи.
English 



































































































































































































































































































































































































































































































































