
Razer выбрала сцену GDC 2026, чтобы представить комплексный набор инструментов на базе искусственного интеллекта, призванных изменить способы разработки и использования игр. Учитывая, что к 2028 году игровой рынок достигнет 206,5 миллиардов долларов, презентация Razer «Будущее игр» подчеркивает сдвиг в сторону «агентной» разработки, использующей ИИ не только для создания ресурсов, но и для управления сложными рабочими процессами, автоматизации контроля качества и обеспечения мультисенсорного погружения.
Начиная с Ava, то, что начиналось как настольный компаньон с 3D-голограммой на выставке CES 2026, превратилось в агента искусственного интеллекта. Razer Ava превратилась из реактивного чат-бота в проактивного помощника, способного понимать намерения пользователя и выполнять многоэтапные рабочие процессы в различных приложениях и сервисах. Это обеспечивается новой плоскостью управления выводами Razer, которая маршрутизирует задачи между локальными и облачными моделями для поддержания низкой задержки. Теперь AVA может взаимодействовать со сторонними приложениями, такими как Spotify, и координировать свои действия с другими подразделениями AVA для обработки предложений по планированию или встречам. Управляя настройкой и координацией, Razer позиционирует Ava как инструмент для разработчиков и обычных геймеров. Регистрация на бета-тестирование Razer AVA в настоящее время открыта через Razer Cortex, а приглашения на ранний доступ, как ожидается, начнут распространяться во втором квартале 2026 года.
Razer также решает вопросы обеспечения качества с помощью своего обновленного QA Companion-AI. Основной особенностью этого обновления 2026 года является развертывание с «нулевой интеграцией», то есть для его работы не требуются SDK или изменения кода. Он работает через систему, основанную на зрении, которая анализирует кадры игрового процесса для обнаружения ошибок рендеринга, физики и анимации. Помимо простого обнаружения, инструмент теперь может генерировать функциональные и отрицательные тестовые примеры непосредственно из подсказок разработчика или документов игрового дизайна. Автономные агенты игрового процесса также находятся в разработке, чтобы выполнять эти тестовые примеры и предоставлять сводные данные о пройденном/неудачном тестировании без использования сценариев. Автоматизируя этапы воспроизведения и составления отчетов, Razer стремится ускорить цикл контроля качества для студий любого размера.
Завершением является Razer Adaptive Immersive Experience, новая среда выполнения, которая объединяет тактильные ощущения, освещение и звук в Экосистема разработчиков WYVRN. Эта система предназначена для сокращения времени, которое разработчики тратят на настройку сенсорных эффектов, до трех дней, предоставляя библиотеку Plug-and-Play, совместимую с Unity и Unreal Engine. Система использует «Dynamic Haptics» для объединения эффектов, созданных дизайнером, с преобразованием «аудио в тактильные ощущения» (A2H) в реальном времени. Это позволяет игре обеспечивать постоянную базовую тактильную обратную связь даже в те моменты, когда разработчики не прописали эффект вручную. Созданная на основе Razer Sensa HD Haptics, Razer Chroma RGB и THX Spatial Audio+, среда выполнения интеллектуально адаптируется к внутриигровым сигналам, не нарушая творческих замыслов студии. Поэтапное внедрение этого иммерсивного слоя начнется в первом квартале 2026 года.
KitGuru говорит: Вы когда-нибудь думали, что Razer выйдет на рынок разработчиков? Что вы думаете об этом новом предприятии компании?
Сообщение Razer делает ставку на искусственный интеллект на GDC 2026 впервые появилось на KitGuru.

