The Conversation: ИИ оказался не способен понимать человеческие эмоции
Ученые и IT-компания не смогли создать модель искусственного интеллекта (ИИ), которая была бы способна корректно различать человеческие эмоции. Об этом сообщает издание The Conversation.
Журналисты медиа заметили, что на рынке появляются ИИ-сервисы, создатели которых обещают, что они могут различать и работать с человеческими эмоциями. Однако ученые считают, что нейросети и машины до сих пор уступают человеку в этом навыке.
В качестве примера авторы привели австралийский стартап inTruth, специалисты которого заявили, что их модель ИИ способна различать человеческие эмоции и делать на основе этого выводы. Однако журналисты отметили, что научных доказательств того, что машины могут понимать эмоциональное состояние человека, до сих пор нет.
Ранее было установлено, что ИИ допускает дискриминацию по признаку расы, пола и инвалидности. В одном случае модель воспринимала эмоции чернокожих людей как более агрессивные. Также специалисты отмечают, что изученные модели ИИ при определении эмоций склонны полагаться на физиогномику и френологию — признанные сообществом псевдонаучные направления.
В inTruth возразили, что добились прорыва в определении человеческих эмоций. Специалисты отметили, что проблема дискриминации или предвзятого отношения сложились не по вине самой технологии, а из-за набора данных, на которых обучали ИИ.
Ранее правозащитники из США призвали полицию не использовать ИИ для составления протоколов и отчетов. Активисты полагают, что ИИ может стать причиной ошибок в полицейских материалах.
Больше на Онлайн журнал sololaki
Subscribe to get the latest posts sent to your email.