Сообщается, что OpenAI недовольна производительностью графических процессоров Nvidia. Тем временем Nvidia передумала вкладывать 100 миллиардов долларов в OpenAI. Это последние слухи о двух крупнейших игроках в области искусственного интеллекта. Так может ли их нечестивый союз пошатнуться?
На прошлой неделе Wall Street Journal заявил, что Nvidia переосмысливает свои ранее объявленные планы инвестировать 100 миллиардов долларов в OpenAI из-за опасений по поводу ее способности конкурировать с такими компаниями, как Google и Anthropic.
The Wall Street Journal утверждает, что генеральный директор Nvidia Дженсен Хуанг «в частном порядке раскритиковал то, что он назвал недостатком дисциплины в бизнес-подходе OpenAI, и выразил обеспокоенность по поводу конкуренции, с которой она сталкивается со стороны таких компаний, как Google и Anthropic».
Публично Хуанг защищал намерения Nvidia, когда речь шла об инвестициях в OpenAI, но воздержался от явного подтверждения сделки на сумму 100 миллиардов долларов. «Мы вложим много денег, возможно, это будет самая крупная инвестиция, которую мы когда-либо делали», — сказал он. Но он также ответил: «Нет-нет, ничего подобного», когда его спросили, превысят ли эти инвестиции 100 миллиардов долларов.
Что касается OpenAI, Reuters сообщает, что она «неудовлетворена некоторыми из последних чипов искусственного интеллекта Nvidia и ищет альтернативы с прошлого года». Утверждается, что OpenAI смещает акцент с обучения ИИ в пользу умозаключений или использования моделей ИИ в качестве услуг для клиентов.
Говорят, что именно для этой последней задачи OpenAI не хватает графических процессоров Nvidia. «Семь источников сообщили, что OpenAI не удовлетворена скоростью, с которой оборудование Nvidia может выдавать ответы пользователям ChatGPT на конкретные типы проблем, таких как разработка программного обеспечения и взаимодействие ИИ с другим программным обеспечением», — утверждает Reuters.
Например, Microsoft недавно анонсировала свою новейшую ASIC, или специализированную интегральную схему, специально предназначенную для вывода. ASIC — это микросхемы, предназначенные для очень эффективного выполнения одной узкоспециализированной задачи. И, вероятно, будет справедливо сказать, что в долгосрочной перспективе большинство отраслевых обозревателей считают, что обработка выводов ИИ, по крайней мере, будет выполняться на ASIC, а не на графических процессорах.
Удобный параллельный пример использования возможностей ASIC — майнинг криптовалют. Раньше это тоже делалось на графических процессорах. Но сейчас ASIC гораздо более эффективны.
В любом случае, возможно, неизбежно, что любовь OpenAI-Nvidia в какой-то степени пошатнется. Обе компании пахнут «мировым господством», и, в конце концов, их интересы никогда не совпадут идеально.
Согласно отчету Wall Street Journal, весьма вероятно, что Nvidia по-прежнему будет инвестировать миллиарды в OpenAI. И на данный момент, без сомнения, у OpenAI нет другого выбора, кроме как продолжать покупать графические процессоры Nvidia на миллиарды долларов. Но если в этих историях есть доля правды, медовый месяц, вероятно, закончился.
Лучшая видеокарта 2026 года


