Резюме создано Smart Answers AI
В итоге:
- PCWorld сообщает о критической ошибке Microsoft Copilot (CW1226324), которая позволяет ИИ сканировать и суммировать конфиденциальные электронные письма Outlook, минуя защиту конфиденциальности.
- Эта уязвимость затрагивает учетные записи Microsoft 365 и ставит под угрозу конфиденциальные данные, такие как контракты и медицинскую информацию, хранящиеся в папках «Отправленные» и «Черновики».
- Microsoft выпускает исправление, но сроки остаются неясными, что вызывает серьезные опасения по поводу надежности ИИ и защиты конфиденциальности данных.
Несмотря на весь свой предполагаемый интеллект, «ИИ», похоже, допускает множество глупых ошибок — например, сканирует и суммирует электронные письма, помеченные как «конфиденциальные» в Microsoft Outlook. Согласно отчету об ошибке самой Microsoft, это последняя проблема с помощником Microsoft Copilot.
Чат Copilot в учетных записях Microsoft 365 может читать и суммировать электронные письма в папках «Отправленные» и «Черновики» Outlook, даже если они помечены как конфиденциальные… метка, специально разработанная для защиты от доступа автоматизированных инструментов. BleepingComputer резюмирует проблему с пометкой «CW1226324» и сообщает, что исправление распространяется на затронутые учетные записи. Сроков, когда исправление станет доступно для всех пользователей, нет. (К сожалению, полный отчет недоступен для просмотра широкой публикой — чтобы его просмотреть, вам потребуются права администратора Microsoft 365.)
Проблема, как можно догадаться, тревожная. Функция конфиденциальности в Outlook часто используется для таких вещей, как деловые контракты, юридическая переписка, правительственные или полицейские расследования, а также личная медицинская информация. Это тот тип материала, который вам абсолютно не нужен, чтобы он сканировался большой языковой моделью и определенно не впитывался в ее обучающие данные, как это часто бывает.
Microsoft не сообщает, сколько пользователей затронуто, но заявляет, что «масштаб воздействия может измениться» по мере расследования проблемы. Как утешительно. Это действительно заставит людей начать использовать Copilot, верно?


