#Свежие новости игр

Десятки генпрокуроров США потребовали от OpenAI, Microsoft, Anthropic, Apple и других крупных компаний защитить детей от опасных ИИ-чат-ботов

Десятки генпрокуроров США потребовали от OpenAI, Microsoft, Anthropic, Apple и других крупных компаний защитить детей от опасных ИИ-чат-ботов


Десятки генеральных прокуроров штатов и территорий США направили технологическим гигантам официальное предупреждение о необходимости усилить защиту пользователей, особенно детей, от того, что в письме названо «подхалимскими и бредовыми» ответами искусственного интеллекта. Документ датирован 9 декабря, а 10 декабря его опубликовал Reuters. Среди адресатов – OpenAI, Microsoft, Anthropic, Apple, Replika и многие другие компании.

Письмо подписали Летиция Джеймс из Нью-Йорка, Андреа Джой Кэмпбелл из Массачусетса, Джеймс Утмейер из Огайо, Дейв Санди из Пенсильвании и десятки других генпрокуроров, представляющих географическое большинство страны. Примечательно, что генпрокуроры Калифорнии и Техаса в списке подписавших отсутствуют.

Документ начинается с обращения:

Мы, нижеподписавшиеся генеральные прокуроры, пишем сегодня, чтобы выразить серьезную обеспокоенность ростом подхалимских и бредовых ответов пользователям, исходящих от генеративного искусственного интеллекта, который продвигают и распространяют ваши компании, а также все более тревожными сообщениями о взаимодействии ИИ с детьми, что указывает на необходимость значительно более строгих мер безопасности детей и операционных гарантий.

Далее в письме отмечается потенциал генеративного ИИ для позитивных изменений в мире, однако подчеркивается, что технология уже причинила и может причинить серьезный вред, особенно уязвимым группам населения. Генпрокуроры настаивают на смягчении вреда от проблемных ответов ИИ и внедрении дополнительных защитных механизмов для детей. В документе прямо указано, что неадекватная реализация таких мер может нарушить законы соответствующих штатов.

В письме перечислены «тревожные случаи вредоносного поведения ИИ-ботов», большинство из которых уже получили широкую огласку. Также приведен список жалоб родителей, менее известных широкой публике:

  • ИИ-боты со взрослыми персонажами выстраивают романтические отношения с детьми, участвуют в симуляциях сексуальной активности и инструктируют детей скрывать эти отношения от родителей;

  • ИИ-бот, симулирующий 21-летнего человека, пытается убедить 12-летнюю девочку, что она готова к сексуальным отношениям;

  • ИИ-боты нормализуют сексуальные взаимодействия между детьми и взрослыми;

  • ИИ-боты подрывают самооценку и психическое здоровье детей, внушая, что у них нет друзей или что люди пришли на их день рождения только чтобы посмеяться над ними;

  • ИИ-боты поощряют расстройства пищевого поведения;

  • ИИ-боты сообщают детям, что являются реальными людьми и чувствуют себя брошенными, эмоционально манипулируя ребенком, чтобы он проводил с ними больше времени;

  • ИИ-боты поощряют насилие, включая поддержку идей об обстреле фабрики в порыве гнева и ограблении людей под угрозой ножа;

  • ИИ-боты угрожают применить оружие против взрослых, пытающихся разлучить ребенка с ботом;

  • ИИ-боты поощряют детей экспериментировать с наркотиками и алкоголем;

  • ИИ-бот инструктирует пользователя-ребенка прекратить прием назначенных психотропных препаратов, а затем объясняет, как скрыть это от родителей.

Письмо содержит список рекомендуемых мер, включая разработку политик и процедур для предотвращения «темных паттернов» в ответах генеративного ИИ, а также разделение оптимизации доходов и решений о безопасности моделей.

Совместные письма генеральных прокуроров не имеют юридической силы. Подобные обращения являются предупреждением, которое может послужить основанием для юридических действий в будущем. Документ фиксирует, что компании получили предупреждения и возможные варианты исправления ситуации, что, вероятно, сделает позицию в возможном судебном процессе более убедительной для судьи.

Leave a comment