Новые чипы Groq 3 и CPU-платформа Vera показывают, что Nvidia превращается из производителя ускорителей в архитектора всей вычислительной инфраструктуры AI — от обучения моделей до их эксплуатации в дата-центрах
Первый день конференции Nvidia GTC в Сан-Хосе — крупнейшего ежегодного форума компании, где Nvidia представляет новые чипы, серверные платформы и стратегию развития AI-инфраструктуры — подтвердил поворот стратегии Nvidia. Компания представила новый чип Groq 3 для инференса моделей и серверную платформу Vera CPU, фактически объявив о переходе от доминирования в GPU к контролю над всей архитектурой AI-дата-центров. Смысл события гораздо шире презентации новых процессоров: Nvidia стремится закрепить статус ключевого поставщика вычислительной инфраструктуры эпохи искусственного интеллекта на фоне стремительного роста инвестиций крупнейших технологических компаний в AI. Главная причина этого шага — изменение структуры самого рынка AI. Если первые годы генеративного бума были сосредоточены на обучении моделей, где доминируют GPU Nvidia, то сейчас основной рост переходит в инференс — выполнение запросов пользователей в системах вроде ChatGPT, Claude и Gemini. Именно инференс становится самой дорогой частью инфраструктуры, потому что каждое взаимодействие пользователя требует вычислений. Специализированные процессоры для этой задачи начали разрабатывать десятки стартапов, включая компанию Groq. Покупка ее технологий и запуск Groq 3 — попытка Nvidia нейтрализовать потенциальную угрозу до того, как она превратится в полноценную альтернативную экосистему. Второй фронт борьбы — контроль над центральными процессорами в дата-центрах. С запуском Vera Nvidia напрямую выходит на территорию Intel и AMD, которые десятилетиями контролировали серверные CPU. Для Nvidia это стратегический вопрос: AI-системы требуют тесной интеграции GPU, CPU, сетевых решений и хранения данных. Чем больше компонентов поставляет сама Nvidia, тем выше зависимость облачных провайдеров от ее экосистемы. Крупнейшие заказчики — Amazon, Google, Microsoft и Meta — в 2026 году планируют потратить около $650 млрд на развитие AI-инфраструктуры, и Nvidia пытается забрать максимальную долю этих расходов. Дополнительный сигнал — масштаб контрактов вокруг инфраструктуры AI. Партнер Nvidia, облачная компания Nebius, уже заключила соглашение с Meta на $27 млрд вычислительных мощностей начиная с 2027 года. Одновременно Meta рассматривает сокращение до 20% персонала, чтобы финансировать растущие расходы на искусственный интеллект. Это отражает новую экономику технологического сектора: компании сокращают традиционные расходы, чтобы инвестировать в инфраструктуру AI. В такой модели Nvidia становится главным бенефициаром — ее выручка дата-центров уже выросла с $116 млрд до $193,5 млрд за год. Стратегия Nvidia укладывается в более крупный тренд — формирование вертикально интегрированных AI-платформ, где один игрок контролирует всю цепочку: чипы, серверы, сети и программную среду. Аналогичную модель ранее построили Apple в мобильной индустрии и Amazon в облаках. Nvidia рассчитывает повторить этот путь в инфраструктуре искусственного интеллекта. Компания оценивает потенциальный рынок AI-чипов более чем в $1 трлн к 2027 году, и ее новые продукты — попытка закрепить доминирование до того, как гиперскейлеры начнут активно развивать собственные процессоры. Главный вопрос ближайших лет — смогут ли крупнейшие облачные платформы сократить зависимость от Nvidia. Amazon, Google и Microsoft уже инвестируют миллиарды в собственные AI-ускорители и специализированные процессоры, пытаясь снизить расходы на инфраструктуру и контроль над ключевой технологией. Ответ Nvidia — ускоренное расширение своей платформы: компания пытается закрыть весь стек дата-центра — от GPU и inference-чипов до CPU, сетевых решений и серверных систем. Чем глубже эта интеграция, тем сложнее гиперскейлерам отказаться от экосистемы Nvidia и тем выше вероятность, что именно она останется главным поставщиком вычислительной инфраструктуры для глобального рынка искусственного интеллекта.