Резюме создано Smart Answers AI
В итоге:
- PCWorld сообщает, что ChatGPT 5.2 теперь индексирует Grokipedia, энциклопедию xAI, созданную искусственным интеллектом, известную неточностями и теориями заговора.
- Это создает тревожную петлю обратной связи, в которой генерируемая ИИ дезинформация распространяется между основными языковыми моделями, потенциально перезаписывая устоявшиеся знания.
- Интеграция создает значительные риски для целостности информации, поскольку предвзятый или ложный контент одной системы ИИ влияет на реакцию другой.
Все больше и больше Интернета заполняется текстом, изображениями и даже видео и музыкой, созданными LLM. Это еще более серьезная проблема, чем кажется, потому что системы «ИИ», которые исследовали Интернет, чтобы создать свои большие языковые модели, теперь переиндексация всего этого вывода. Это уроборос отстойников ИИ…. и теперь ChatGPT — который, по большинству показателей, является самым популярным LLM — индексирует Grokipedia.
Grokipedia — это энциклопедия, созданная с помощью искусственного интеллекта, созданная в прошлом году компанией xAI, дочерней компанией сайта социальной сети Илона Маска. Он почти полностью генерируется автоматически с помощью Grok LLM, который также интегрирован в социальную сеть. Грокипедия позиционируется как консервативная альтернатива Википедии, которую Маск считает «пробуждённой» и «пропагандистской».
Грокипедия наполнена неточностями и галлюцинациями искусственного интеллекта (по-видимому, чаще, чем даже обычные системы LLM), поскольку сам Грок был намеренно изменен, чтобы соответствовать диктату Маска. Было замечено, что система продвигает теории заговора и другие материалы, от просто бредовых до активно вредных.
Теперь выяснилось, что ChatGPT OpenAI индексирует Grokipedia, чтобы отвечать по крайней мере на некоторые запросы пользователей. Согласно исследованию The Guardian, ChatGPT 5.2 избирательно возвращает информацию, полученную из Grokipedia: он не даст вам немедленных ответов, сгенерированных Grok, на самые известные и задокументированные ложные сведения на странице, такие как дезинформация о ВИЧ и СПИДе. Но когда пользователи попросили ChatGPT более подробно рассказать о разногласиях вокруг иранского правительства или отрицателя Холокоста Дэвида Ирвинга, система вернула информацию, полученную со страниц, созданных Гроком.
Огромный объем текста, выдаваемого студентами LLM, который, по оценкам, составит более половины всех новых опубликованных статей по состоянию на конец 2025 года, становится проблемой. Ошибки «ИИ» (или «галлюцинации») могут распространяться, тиражироваться и повторяться, по существу перезаписывая устоявшиеся знания ошибкой копирования. Фундаментально итеративную природу больших языковых моделей также можно использовать в качестве оружия. Было замечено, что ИИ Gemini от Google повторяет официальную позицию Коммунистической партии Китая по поводу нарушений прав человека в стране (или, по мнению Gemini, их отсутствия), а некоторые исследователи в области безопасности полагают, что Россия выкачивает пропагандистский текст, сгенерированный LLM, с конкретной целью интегрировать его в другие крупные языковые модели.
Было замечено, что сам Грок повторял откровенно разжигающие ненависть материалы, а чат-бот называл себя «МехаГитлер». Он также сгенерировал с помощью искусственного интеллекта миллионы сексуализированных изображений несовершеннолетних с помощью инструментов, доступных на X, начиная с декабря 2025 года. Инструмент был отключен для бесплатных пользователей в начале января и ограничен на X, чтобы отключить инструмент применительно к реальным людям, демонстрирующим открытую одежду. После инцидента страны по всему миру начали расследования в отношении Grok/X, ссылаясь на возможные нарушения различных законов. Индонезия и Малайзия полностью заблокировали доступ к Гроку.
Непонятно, почему именно OpenAI решила интегрировать результаты Грока в ChatGPT — не только искать автоматически сгенерированный текст, но и обучать свои собственные системы на продуктах конкурентов и конкурентов. Возможно, просто из-за постоянной нехватки больших языковых моделей, которые зависят от новых входных данных для итеративной адаптации и изменения, OpenAI не может быть избирательным при обучении.


