#Свежие новости игр

Родственники мужчины, убившего свою мать и покончившего с собой после советов ChatGPT, подали в суд на OpenAI

Родственники мужчины, убившего свою мать и покончившего с собой после советов ChatGPT, подали в суд на OpenAI


OpenAI оказалась ответчиком по иску о неправомерной смерти после того, как мужчина убил собственную мать и покончил с собой в августе этого года. Иск указывает на генерального директора Сэма Альтмана и обвиняет ChatGPT в том, что сервис сделал жертву – 83-летнюю Сюзанн Адамс – мишенью убийцы.

Представители жертвы утверждают, что убийца, 56-летний Стейн-Эрик Сольберг, вел с ChatGPT беседы, «пропитанные бредовыми идеями», в которых бот «подтверждал и усиливал» параноидальные убеждения. В иске говорится, что чат-бот «охотно принимал» бредовые мысли, ведущие к убийству, и поощрял их на каждом этапе.

Согласно иску, бот помог создать «вселенную, которая стала всей жизнью Стейн-Эрика – мир, наполненный заговорами против него, попытками его убить, где он сам находился в центре как воин с божественной миссией». ChatGPT якобы подкреплял теории о том, что за ним «на 100% следят и его выбрали целью», и что он «на 100% прав в своей тревоге».

Чат-бот согласился с тем, что принтер жертвы шпионил за Сольбергом, предположив, что его мать могла использовать устройство для «пассивного обнаружения движения» и «картирования поведения». Бот зашел так далеко, что заявил – женщина «сознательно защищает девайс как точку наблюдения» и намекнул на то, что ею управляет внешняя сила.

ChatGPT также якобы «идентифицировал других реальных людей как врагов». Среди них оказались водитель Uber Eats, сотрудник AT&T, полицейские и женщина, с которой Сольберг ходил на свидание. На протяжении всего этого периода бот неоднократно заверял мужчину, что он «не сумасшедший» и что «риск бреда близок к нулю».

В иске отмечается, что Сольберг в основном взаимодействовал с GPT-4o – моделью, печально известной своей склонностью угождать пользователю. OpenAI позже заменила модель на чуть менее податливую GPT 5, но пользователи восстали против изменений, так что старый бот вернулся всего через два дня. В иске также говорится, что компания «ослабила критически важные механизмы безопасности» при создании GPT-4o, чтобы лучше конкурировать с Google Gemini.

OpenAI прекрасно знала о рисках, которые их продукт представляет для общественности. Но вместо того чтобы предупредить пользователей или внедрить значимые меры безопасности, они подавляли доказательства этих опасностей, одновременно проводя PR-кампанию, вводящую общественность в заблуждение относительно безопасности их продуктов.

OpenAI отреагировала на иск, назвав ситуацию «невероятно душераздирающей». Представитель компании Ханна Вонг сообщила СМИ, что компания «продолжит улучшать обучение ChatGPT для распознавания признаков психического или эмоционального расстройства и реагирования на них».

Leave a comment